Nicholas Kluge
Ética e Segurança da Inteligência Artificial: ferramentas práticas para se criar “bons” modelos

Não é uma situação incomum quando um indivíduo, ou um grupo de indivíduos, se encontra em frente a um decisor responsável por realizar alguma forma de julgamento com base em um conjunto de fatos e características observáveis (e.g., um Juiz em um tribunal civil, um avaliador em uma entrevista de emprego, ou um gerente de banco responsável por autorizar, ou não, um empréstimo). Contudo, o que é novo é a utilização de modelos de inferência estatística para automatizar tais processos (e.g., modelos criados por aprendizagem de máquina).
Conforme sistemas autônomos afetam cada vez mais pessoas e a sociedade, o entendimento dos potenciais riscos relacionados a tais sistemas (e como mitigá-los) deve ser aprofundado. Mas que tipo de riscos estamos falando?
Sistemas de reconhecimento facial podem apresentar vieses de classificação racistas;
Sistemas de classificação podem discriminar membros da comunidade LGBTQ+.
E por que isso ocorre?
Uma resposta simplista seria “A resposta está nos dados. Os dados que usamos são enviesados”. Contudo, uma resposta mais verídica seria “É um problema complexo”.
Existe muito que ainda não entendemos sobre tais sistemas. Na conferência NIPS de 2017 (Conference on Neural Information Processing Systems), Ali Rahimi levantou um importante ponto sobre o estado atual do campo de pesquisa em Aprendizagem de Máquina: “a aprendizagem de máquinas se tornou alquimia”.
Nas palavras de Ali Rahimi:
"A alquimia não é ruim. Há um lugar para a alquimia. A alquimia “funcionava”. Os alquimistas inventaram a metalurgia, formas de tingir tecidos, nossos modernos processos de fabricação de vidro e medicamentos. Os alquimistas também acreditavam que poderiam curar doenças com sanguessugas e transmutar metais de base em ouro. Para que a física e a química do século XVII pudessem provocar uma mudança em nossa compreensão do universo (que agora experimentamos), os cientistas tiveram que desmontar 2.000 anos de teorias alquímicas. Se você está usando alquimia para criar um sistema de compartilhamento de fotos, tudo bem. Mas estamos além disso agora. Estamos construindo sistemas que governam a saúde e mediam nosso diálogo cívico. Sistemas que influenciam nossas eleições. Eu gostaria de viver em uma sociedade cujos sistemas são construídos em cima de um conhecimento verificável, rigoroso, profundo, e não sobre alquimia."
Em outras palavras, aprendizagem de máquina ainda precisa de mais estudo teórico. Contudo, não é claro que a indústria irá abrandar o seu progresso e desenvolvimento prático em nome da cautela e formalização das teorias que fundamentam a criação de seus produtos. E isso gera problemas.
Assim, acreditamos que se torna necessária a criação e formalização de um novo agente para operar dentro de organizações e empresas voltadas ao desenvolvimento de tecnologias e soluções que utilizem tais tipos de sistemas.
Como ainda existem poucas propostas de como devemos implementar princípios éticos e diretrizes normativas na prática do desenvolvimento de sistemas de IA, nós da AIRES PUCRS desenvolvemos um pequeno guia que busca diminuir esta lacuna entre o discurso e a práxis. Entre princípios abstratos e implementação técnica. Neste trabalho, buscamos introduzir o leitor ao tema da Ética e Segurança da IA. Ao mesmo tempo, apresentamos uma série de ferramentas para auxiliar desenvolvedores de sistemas inteligentes a desenvolver “bons” modelos. Este trabalho é um guia em desenvolvimento publicado em inglês e português. Contribuições e sugestões são bem vindas!
Nosso guia, “Ética e Segurança da Inteligência Artificial: ferramentas práticas para se criar “bons” modelos” pode ser acessado nesses links: arXiv e ResearchGate.
Para mais informações, conta-te Nicholas Kluge (autor do trabalho).