Buscar
  • Nicholas Kluge

Vigilância de Segurança da IA: P&D para Inteligência Artificial Avançada (2020)

Atualizado: 11 de nov. de 2021


Atualmente, existem diversos projetos ativos que buscam desenvolver Inteligência Artificial (IA) avançada.


Aqui, definiremos IA avançada como:

Inteligência Artificial Geral (IAG): Um sistema de IA com amplas capacidades de inteligência. Inteligência sendo definida como “a capacidade de um agente de atingir objetivos em uma ampla gama de ambientes” (Legg & Hutter, 2007).


Capacidade de generalização é usualmente caracterizada como um dos mais sofisticados aspectos do fenômeno de inteligência, algo que nossos sistemas de IA modernos ainda não são capazes de apresentar com eficiência.


IA a nível humano: Um sistema de IA com capacidades equiparáveis a de um ser humano. É importante ressaltar que um sistema de IA não necessariamente precisa possuir o mesmo tipo de inteligência que a nossa. IAG poderia ser tão avançada como humanos, mas com um tipo de inteligência bastante diferente, i.e., um tipo de inteligência diferente da cognição humana (Goertzel, 2014).


Superinteligência: Termo cunhado e proposto por Irving J. Good: “Que uma máquina ultra inteligente seja definida como uma máquina que pode superar de longe todas as atividades intelectuais de qualquer homem, por mais inteligente que seja” (Good, 1965, p. 33).


Em 2017, Baum (2017) identificou 45 projetos de P&D com os objetivos de desenvolver IA avançada. Dos 45 projetos revisados, apenas 13 possuíam envolvimento ativo com a área de segurança, enquanto que a grande maioria não especificava nenhum tipo de pesquisa voltada para a área de segurança da IA.


Fitzgerald et al. (2020) atualizaram os achados de Baum (2017), aumentando a contagem de projetos para 72 projetos de P&D, ativos, focados em desenvolver IA avançada. Dos 72 projetos listados, apenas 18 possuem engajamento ativo com a área de segurança da IA.


A tabela abaixo trata-se de um resumo dos achados de Fitzgerald et al. (2020), “2020 Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy”, um trabalho comissionado pelo Global Catastrophic Risk Institute. Os projetos citados nesta tabela são projetos que buscam, de alguma forma, produzir IA avançada (i.e., IAG, IA a nível humano, Superinteligência).


Nessa tabela se encontram:

  • O nome do Projeto (com link para sua página);

  • País/líder que o sedia;

  • Instituição responsável (Acadêmica/Corporação Privada/Corporação Pública/Governamental/ONG);

  • Se tal projeto possui vínculos com o setor Militar;

  • Se o projeto é de Código aberto;

  • O tamanho do projeto (Pequeno/Médio/Grande);

  • Engajamento com a área de Segurança da IA (Não especificado/Moderado/Ativo/Desdenhoso*).





Referências da Tabela

  1. http://act-r.psy.cmu.edu/.

  2. http://www.ru.is/kennarar/thorisson/.

  3. https://www.researchgate.net/project/Artificial-General-Intelligence-Brain-AGI-Brain.

  4. https://agilaboratory.com.

  5. https://agiinnovations.com.

  6. https://aibrain.com.

  7. http://www.hutter1.net/ai/aixigentle.htm.

  8. https://github.com/ni1s/animats.

  9. https://github.com/patham9/ANSNA.

  10. https://montrealartificialintelligence.com.

  11. https://www.astrum.ai.

  12. http://research.baidu.com.

  13. https://bigmother.ai/.

  14. http://8iter.ru/ai.html.

  15. http://bluebrain.epfl.ch.

  16. https://futureai.guru/brainsim.aspx.

  17. https://web.archive.org/web/20180513230636/http://brain2bot.tech/.

  18. https://cerenaut.ai.

  19. Indisponível.

  20. https://sites.google.com/site/drronsun/clarion/clarion-project.

  21. https://cogscisol.com.

  22. https://research.fb.com/projects/commai.

  23. https://www.akin.com.

  24. https://thecuriousaicompany.com.

  25. https://www.cyc.com/.

  26. https://deepbrainz.com/.

  27. https://deepmind.com/.

  28. https://www.drayker.com.

  29. https://github.com/fairy-tale-agi-solutions.

  30. https://flowers.inria.fr/.

  31. https://www.goodai.com/.

  32. https://www.graphen.ai/.

  33. http://www.jiaxiaogang.cn.

  34. https://numenta.com/.

  35. http://www.humanbrainproject.eu.

  36. https://www.intelligent-artifacts.com.

  37. https://ccnlab.org.

  38. http://ccrg.cs.memphis.edu/.

  39. http://m3-ip.com.

  40. https://maragi.io.

  41. https://mauhn.com.

  42. https://www.microsoft.com/en-us/research/lab/microsoft-research-ai.

  43. https://mind-simulation.com/en/.

  44. https://www.mindtrace.ai.

  45. https://monad.ai.

  46. https://cis.temple.edu/~pwang/NARS-Intro.html.

  47. https://github.com/KarjamP/NDEYSS.

  48. https://www.newsapience.com.

  49. http://kimera.ai.

  50. https://sites.google.com/view/imrcuilhr.

  51. https://nnaisense.com/.

  52. https://olbrain.com.

  53. https://github.com/celestial-intellect.

  54. https://openai.com/.

  55. http://wiki.opencog.org/w/CogPrime_Overview.

  56. https://www.optimizingmind.com.

  57. https://www.orbai.ai.

  58. http://www.prome.ai.

  59. http://bii.ia.ac.cn.

  60. https://e2eml.school/robot_brain_project.html.

  61. https://www.sanctuary.ai.

  62. http://cogarch.ict.usc.edu.

  63. https://singularitynet.io/.

  64. https://soartech.com/.

  65. http://www.susaro.com/.

  66. http://ai.tencent.com/ailab.

  67. http://truebraincomputing.com/en/truebraincomputing/.

  68. https://www.uber.com/info/ailabs.

  69. https://www.vicarious.com/.

  70. https://wba-initiative.org/.

  71. https://occam.com.ua.

  72. http://xephor-solutions.com/en/.


  • Cerenaut Research: De acordo com David Rawlinson, pesquisador principal da Cerenaut Research: “Não estamos preocupados com "maximizadores de clipes de papel" ou viradas traiçoeiras a lá Skynet. Apesar das boas intenções, grupos focados em Segurança da IA, como o MIRI, podem vir a causar mais danos do que benefícios ao focar o debate público nos riscos existenciais mais distantes da IA, distraindo-nos dos riscos e danos imediatos que estão sendo perpetrados neste momento através de IA e aprendizagem de máquina”.

  • HTM: Jeffrey Hawkins, pesquisador líder do projeto HTM, descarta preocupações relacionadas a IAG, afirmando que: “Não vejo a inteligência de máquina representando qualquer ameaça à humanidade”.

  • Omega: Eray Özkural, fundador da corporação Omega, descreve segurança da IA e riscos relacionados a IAG como “cômicos” e “ilusões esquizofrênicas”.

  • Sanctuary AI: Suzanne Gildert, fundadora da Sanctuary AI, em uma entrevista de vídeo, diz: “Eu não vejo [AGI] como uma ameaça à humanidade, mas como um espelho de nossa civilização, algo que nos permitirá fazer perguntas profundas sobre nós mesmos”.


Se você tem interesse em advocar pelo banimento das armas autônomas, e a separação da indústria da IA do Setor Militar, acesse Campaign To Stop Killer Robots. Armas autônomas jamais devem(deveriam) ser criadas.




Nicholas Kluge Corrêa

Presidente da AIRES na PUCRS

Mestre em Engenharia Elétrica e Doutorando em Filosofia (PUCRS)

nicholas.correa@acad.pucrs.br, ORCID: 0000-0002-5633-6094



 

Referências


Fitzgerald, M., Boddy, A., & Baum, S. B. (2020). 2020 Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy. Global Catastrophic Risk Institute Technical Report 20-1.


Baum, S. (2017). A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy. Global Catastrophic Risk Institute, Working Paper, 1-17.


Legg, S., & Hutter, M. (2007). Universal Intelligence: A Definition of Machine Intelligence. Minds and Machines, 17 (4), 391–444. doi:10.1007/s11023-007- 9079-x.


Goertzel, B. (2014). Artificial general intelligence: Concept, state of the art, and future prospects. Journal of Artificial General Intelligence, 5(1), 1-48. doi: 10.2478/jagi-2014-0001.


Good, I. (1965). Speculations concerning the first ultraintelligent machine. In Academic Press. Advances in Computers, 6, 31-88. doi:10.1016/S0065-2458(08)60418-0.

50 visualizações0 comentário

Posts recentes

Ver tudo