Buscar
  • Nicholas Kluge

AI Tracker: monitoramento de riscos de modelos em superescala

Atualizado: 25 de nov. de 2021





Pesquisa em IA vive uma época onde modelos são escalados a tamanhos que a alguns anos atrás não era considerado possível.


Exemplos como GPT-3 (modelos de linguagem com 175B de parâmetros criado pela OpenAI) e WuDao (um modelo multimodal com 1.7T de parâmetros criado pela Beijing Academy of Artificial Intelligence) nos mostram que modelos de IA estão sendo escalados para se tornarem (cada vez mais) algoritmos de uso geral.


Contudo, com grandes capacidades vêm grandes riscos. Muitos desses modelos possuem o potencial de serem utilizados para fins maliciosos, algo que certamente devemos nos manter atentos e vigilantes.


Para auxiliar nesse monitoramento, em novembro de 2021 foi lançado o AI Tracker, uma ferramenta online (em formato de dashboard) que lista os maiores (e mais proficientes) modelos já criados, junto com uma análise dos possíveis riscos associados a cada um deles. Por exemplo, AlphaFold2 (i.e., um sistema de IA capaz de prever a estrutura tridimensional que uma proteína adotará com base unicamente em sua sequência de aminoácidos) poderia ser utilizado para desenvolver armas biológicas.


A plataforma foi desenvolvida para auxiliar pesquisadores e reguladores a entender melhor a paisagem de risco em segurança da IA.


Para mais informações, acesse este link!


Para um lista com projetos de P & D que buscam desenvolver Inteligência Artificial (IA) avançada (e dados como seu envolvimento com a área de segurança e laços com o setor militar), acesse este link.

17 visualizações0 comentário