Nicholas Kluge
Consultoria em Ética e Segurança da IA
Updated: Nov 11, 2021

Não é uma situação incomum quando um indivíduo, ou um grupo de pessoas, se encontra em frente a um decisor responsável por realizar alguma forma de julgamento com base em algum conjunto de fatos e características observáveis (e.g., um Juiz em um tribunal civil, um avaliador em uma entrevista de emprego, ou um gerente de banco responsável por autorizar, ou não, um empréstimo). Contudo, o que é novo é a utilização de modelos de inferência estatística para automatizar tais processos (e.g., modelos de aprendizagem de máquina).
Conforme sistemas criados a partir de aprendizagem de máquina afetam cada vez mais as pessoas e a sociedade, o entendimento de potenciais consequências indesejadas também devem ser estudadas e reconhecidas. Para antecipar, prevenir e mitigar as consequências indesejáveis de tais sistemas, é fundamental que compreendamos quando e como os danos podem ser introduzidos ao longo do ciclo de vida (i.e., coleta de dados, treinamento, validação, testagem, implantação, etc.) de tais sistemas.
Contudo, ainda existem poucas propostas de como devemos implementar princípios éticos e diretrizes normativas na prática do desenvolvimento desses tipos de sistemas. O objetivo deste projeto é tentar diminuir a lacuna entre o discurso e a práxis. Entre princípios abstratos e implementação técnica.
Estamos no processo de desenvolver um manual de Ética e Segurança da IA. Um guia composto por diversas ferramentas para ajudar desenvolvedores a implementar sistemas de IA de forma ética e robusta. Essa iniciativa faz parte de uma parceria entre a Escola de Humanidades da PUCRS, Tecnopuc e a NAVI AI New Ventures. E esperamos implementar nossa metodologia com empresas vinculadas ao Tecnopuc que procurem implementar princípios éticos no desenvolvimento de seus produtos. Pretendemos publicar nosso manual, de forma aberta, assim que o finalizarmos.
Para mais informações, contate Nicholas Kluge (Presidente da AIRES na PUCRS).