Nota técnica sobre o PL 21/20

Em 29 de setembro de 2021, a Câmara de Deputados (República Federativa do Brasil) aprovou o Projeto de Lei 21/2020, que estabelece fundamentos e princípios para o desenvolvimento e a aplicação da inteligência artificial (IA) no Brasil.

O PL 21/2020 foi originalmente escrito pelo Deputado Eduardo Bismarck, reformulado pela atual presidente da Frente Digital, Deputada Luísa Canziani, e representa a louvável iniciativa de (i) sinalizar para o mundo que o Brasil está atento às preocupações pertinentes à IA, (ii) proporcionar maior segurança jurídica no uso destas tecnologias e (iii) promover a disseminação da IA no Brasil. Atualmente, o projeto aguarda tramitação no Senado Federal, que o discutirá juntamente com os projetos de lei 872/2021, 5691/2019 e 5051/2019 e ainda pode sofrer modificações.

Neste sentido, a AIRES na PUCRS, na condição de primeiro capítulo do hemisfério sul dá AIRES, uma sociedade sem fins lucrativos focada em educar os líderes e desenvolvedores da Inteligência Artificial de forma ética e responsável, destaca haver um intenso debate na literatura acadêmica mundial sobre como devemos criar IA segura e benéfica, e diversos atores globais já estão engajados neste campo há décadas.

Como tal, a AI Robotics Ethics Society foi fundada em 2018, na UCLA (EUA, Los Angeles), por Aaron Hui, com o objetivo de promover a conscientização e sensibilizar para a importância da implementação e regulamentação ética da AI. A AIRES é hoje uma organização sem fins lucrativos com capítulos em universidade como USC (University of Southern California), Caltech (California Institute of Technology), Stanford University, Cornell University, Brown University e a Pontifícia Universidade Católica do Rio Grande do Sul (Brasil).

 

À medida que a tecnologia avança em ritmo exponencial, é imperativo que comecemos a pensar em como a IA irá interagir e impactar a sociedade em diferentes facetas da vida diária, com o foco na implicação ética e sua implementação dentro dos sistemas de IA e a AIRES na PUCRS está empenhada em promover e aprimorar a Missão AIRES.

O Brasil ainda não possui nenhuma diretriz ética publicada (para o público internacional) em defesa dos interesses da população brasileira, o que se faz necessário pois somos um país com necessidades muito diferentes daquelas de países “à frente” da corrida tecnológica.

Notavelmente, o desenvolvimento e envolvimento na ética da IA por estudantes e profissionais tem sido relativamente incipiente, por isso, consideramos de suma importância promover o debate e, nessa medida, apontar formas de regular a IA mediante as lentes da discussão e implementação ética, vez que no cenário de rápido desenvolvimento em que vivemos, a IA já permeia nossas vidas diárias em vários aspectos. ​

Sendo assim, no intuito de contribuir com algumas diretrizes éticas e até mesmo de cunho técnico, subsidiando a atuação segura de programadores e empresas desenvolvedoras de softwares de inteligência artificial, evitando distorções nos resultados esperados e a consequente responsabilização dos envolvidos, quando cabível, é que a AIRES endossa as recomendações feitas pelo Laboratório de Políticas Públicas e Internet – LAPIN em Setembro de 2021 e destaca outras mais, sendo todas elas descritas e justificadas a seguir:

Redação atual:

Art. 1º Esta Lei estabelece fundamentos e princípios para o desenvolvimento e aplicação da inteligência artificial no Brasil e determina diretrizes para o fomento e a atuação do poder público em relação à matéria.

Recomendações AIRES: Ao mencionar somente o desenvolvimento e aplicação da inteligência artificial, o marco legal afasta a necessidade de se manter o desenvolvimento ético e seguro em outras etapas do ciclo de vida da IA, tais como coleta de dados, treinamento, validação, testagem, monitoramento, auditoria, etc. Ademais, sua redação abre margem para interpretar que suas diretrizes se aplicam somente ao Poder Público. A sugestão é que se utilize uma das seguintes recomendações:

Art. 1º Esta Lei estabelece fundamentos e princípios para o emprego da inteligência artificial no Brasil e determina diretrizes para o fomento e a atuação do poder público e da esfera privada em relação à matéria. Ou então: Art. 1º Esta Lei estabelece fundamentos e princípios para o ciclo de vida da inteligência artificial no Brasil e determina diretrizes para o fomento e a atuação do poder público e da esfera privada em relação à matéria.

Redação atual:

Art. 2º Para os fins desta Lei, considera-se sistema de inteligência artificial o sistema baseado em processo computacional que, a partir de um conjunto de objetivos definidos por humanos, pode, por meio do processamento de dados e informações, aprender a perceber, interpretar e interagir com o ambiente externo, fazendo predições, recomendações, classificações ou decisões, e que utiliza técnicas como os seguintes exemplos, sem a eles se limitar:

 

I – sistemas de aprendizagem de máquina (machine learning), incluindo aprendizagem supervisionada, não supervisionada e por reforço;

II – sistemas baseados em conhecimento ou em lógica;

III – abordagens estatísticas, inferência bayesiana, métodos de pesquisa e otimização.

Parágrafo único. Esta lei não se aplica aos processos de automação exclusivamente orientados por parâmetros pré-definidos de programação que não incluam a capacidade do sistema de aprender a perceber, interpretar e interagir com o ambiente externo a partir das ações e das informações recebidas.

Recomendações AIRES: O conceito adotado pelo marco legal da IA é excessivamente restritivo e afasta sua aplicação a tipos de inteligência artificial que: (i) operam por meio de regras pré-definidas, representações simbólicas de alto nível, lógica e busca (e.g., DeepBlue); e (ii) que não aprendem (e.g., Agentes BDI). Armas autônomas, como drones de combate, v.g., operam apenas mediante regras pré-definidas, muitas vezes operando sem aprendizado. Os melhores robôs já criados (e.g., Atlas - “Agile Anthropomorphic Robot” - criado pela Boston Dynamics) foram desenvolvidos por meio de técnicas de otimização clássicas (i.e., time-varying LQR, QP solvers e otimização convexa). Agentes BDI, por definição, não aprendem, mas são agentes que operam de forma inteligente em suas aplicações. Existe toda uma família de algoritmos desenvolvidos pela abordagem simbólica (GOFAI - Good Old-Fashioned Artificial Intelligence -) que não aprendem, mas mesmo assim são amplamente reconhecidos como “Inteligência Artificial”. Tais tipos de sistemas devem ser enquadrados no guarda-chuva IA, conforme indica a melhor literatura especializada no tema.

Assim sugerimos a retirada do parágrafo único do art. 2º, e a alteração de sua redação para: Art. 2º Para os fins desta Lei, considera-se que um sistema de inteligência artificial é um sistema baseado em processos computacionais que pode, por meio do processamento de dados e informações, perseguir metas e objetivos ao interagir com o ambiente, utilizando técnicas como os seguintes exemplos, sem a eles se limitar: [...]

Redação atual:

Art. 3º A aplicação de inteligência artificial no Brasil tem por objetivo o desenvolvimento científico e tecnológico, bem como:

 

I – a promoção do desenvolvimento econômico sustentável e inclusivo e do bem-estar da sociedade e da redução das desigualdades sociais e regionais;

II – o aumento da competitividade    e da produtividade brasileira;

III – a inserção competitiva do Brasil nas cadeias globais de valor;

IV  – a melhoria na prestação de serviços públicos e na implementação de políticas públicas; e

V – a promoção da pesquisa e desenvolvimento com a finalidade de estimular a inovação nos setores produtivos.

VI - a proteção e a preservação do meio ambiente.

 

Recomendações AIRES: A inteligência artificial é uma tecnologia que possibilita o desenvolvimento de soluções inovadoras para problemas sociais, econômicos, ambientais, entre outros. Como um exemplo, podemos citar “The AI Economist”, de Zheng et al. (2020). Um agente treinado por aprendizagem por reforço para otimizar uma política de taxação de impostos em um ambiente simulado. Os resultados dos autores mostram que o sistema foi capaz de gerar uma política de taxação capaz de otimizar o “Bem-Social” (i.e., Produtividade econômica  Igualdade de renda) de forma superior a outros modelos clássicos de taxação de impostos (e.g., taxação progressiva e taxação regressiva). Esse é apenas um exemplo, e existem inúmeras outras aplicações que podem beneficiar o contexto brasileiro (e.g., lavouras inteligentes, polinização assistida por IA, coleta de lixo inteligente).

 

Deste modo, além das previsões já aprovadas no PL, defende-se que a redução das desigualdades sociais e regionais, a promoção da educação, da pesquisa e da inovação, da inclusão digital, da cooperação internacional, das diferentes formas pelas quais a entidade humana pode vir a se expressar por qualquer grupo ou identidade que deseje, bem como seu acolhimento independentemente de filiações, grupos e identidades específicas, devem figurar como objetivos a serem perseguidos pela inteligência artificial, ou seja, suas razões de existir, e não somente limitações a sua atuação. Nessa perspectiva, entende-se pelo alinhamento com base nos objetivos do artigo 3 da CF/88.

 

Assim sugerimos a inclusão de alguns incisos ao art. 3º:

VII - a promoção da educação e da inclusão digital;

VIII - a redução das desigualdades sociais e regionais;

IX - o estímulo e promoção da IA brasileira em ambiente internacional;

X - a promoção de um ambiente de cooperação entre os entes públicos e privados, a indústria e os centros de pesquisas para o desenvolvimento da Inteligência Artificial;

XI - a capacitação e formação de profissionais para o ecossistema da IA;

XII - o estímulo à inovação e à difusão de novas tecnologias em prol dos direitos e garantias fundamentais; e

XIII - a proteção e a preservação do meio ambiente.

Redação atual:

Art. 4º O desenvolvimento e a aplicação da inteligência artificial no Brasil têm como fundamentos:

I – o desenvolvimento científico, tecnológico e a inovação;

II – a livre iniciativa e a livre concorrência;

III – o respeito à ética, aos direitos humanos e aos valores democráticos;

IV – a livre manifestação de pensamento e da livre expressão da atividade intelectual, artística, científica e de comunicação.

V – a não discriminação, a pluralidade, o respeito às diversidades regionais, a inclusão e o respeito aos direitos e garantias fundamentais dos indivíduos;

VII – o estímulo à autorregulação, mediante adoção de códigos de conduta e guias de boas práticas, observados os princípios previstos no art. 5º, e as boas práticas globais;

VIII – a segurança, a privacidade e a proteção de dados pessoais;

X – o acesso à informação;

XI – defesa nacional, segurança do Estado e soberania nacional;

XII – a liberdade dos modelos de negócios, desde que não conflite com as disposições estabelecidas nesta Lei;

XIII – a preservação da estabilidade, segurança, resiliência e funcionalidade dos sistemas de IA, por meio de medidas técnicas compatíveis com os padrões internacionais e pelo estímulo ao uso de boas práticas;

XIV – a proteção da livre concorrência e contra práticas abusivas de mercado, na forma da Lei nº 12.529, de 30 de novembro de 2011; e

XV – a harmonização com a Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados), Lei nº 12.965, de 23 de abril de 2014 (Marco Civil da Internet), Lei nº 12.529, de 30 de novembro de 2011 (Sistema Brasileiro de Defesa da Concorrência), Lei nº 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor) e Lei nº 12.527 de 18 de novembro de 2011 (Lei de Acesso à Informação).

Parágrafo único. Os códigos de conduta e guias de boas práticas previstos no inciso VII poderão servir como elemento indicativos de conformidade.

Recomendações AIRES: Novamente, o caput do art. 4º menciona somente o desenvolvimento e aplicação da inteligência artificial, abrindo margem para que se interprete como afastada a necessidade de respeitar o marco legal em outras etapas do ciclo de vida da IA, tais como coleta de dados, treinamento, validação, testagem, monitoramento, auditoria, etc.

No inciso V, a substituição do termo cidadão por indivíduos tem o intuito de proteger toda pessoa que interaja com a IA, inclusive estrangeiros.

Ainda, a redação do inciso VII cria um desafio enorme para as empresas, programadores e desenvolvedores de softwares, tendo em vista que os obriga a acompanhar as melhores práticas globais. Destaca-se que no mundo há quase 200 países, sendo que China, EUA, União Europeia e Israel possuem excelentes práticas de IA do ponto de vista tecnológico, apesar de seguirem políticas de governança totalmente distintas e, por vezes, até contrárias. O conceito de “boa” também pode ser relativo: boas práticas no sentido de avanço tecnológico ou do sentido ético/social/político? Destaca-se que, do modo como está redigido, o inciso exigirá que empresas e pesquisadores possuam um enorme staff para acompanhar todas as práticas utilizadas em outros países, e ainda eleger quais serão possivelmente aceitas no contexto brasileiro. Por isso, sugerimos que a legislação indique claramente quais as práticas internacionais possuem maior afinidade com o contexto brasileiro para guiar a IA a ser utilizada em nosso território, e.g., OCDE, ACM, IEEE, ou que desenvolvamos nossas próprias práticas, focadas nas necessidades do contexto brasileiro.

Ainda, do ponto de vista ético, consideramos importante a inclusão do conceito de equidade algorítmica como fundamento da IA. A AIRES possui um manual técnico bastante minucioso que aborda os níveis de risco em IA, bem como métricas possíveis para sua medição, além de técnicas e ferramentas para evitá-los e/ou mitigá-los, elaborado a partir de pesquisa científica no campo da ética em inteligência artificial e da análise de mais de 200 diretrizes éticas publicadas em todo mundo, e que pode ser cedido gratuitamente ao Poder Público para orientar a sua atuação e do setor privado, bem como para instruir a respeito das auditorias. Neste sentido, o inciso I do artigo 8º pode fazer menção concreta a esta diretriz, que certamente dará maior segurança e confiabilidade ao ecossistema.

Com base nesta ferramenta que pode ser de grande ajuda, indicamos a redação a seguir:

Art. 4º A inteligência artificial utilizada no Brasil tem como fundamentos:

[...]

V – a equidade, a não discriminação, a pluralidade, o respeito às diversidades regionais, a diversidade, a inclusão e o respeito aos direitos e garantias fundamentais;

VII – o estímulo à autorregulação, mediante adoção de códigos de conduta e guias de boas práticas, observados os princípios previstos no art. 5º, e as orientações emitidas pela [...]

[...]

VII - a proteção de crianças, adolescentes, idosos e portadores de deficiência em razão da assimetria informacional e cognitiva;

VIII - a proteção do direito autoral e da propriedade intelectual; e

IX - a proteção e a preservação do meio ambiente.

Parágrafo único. Os códigos de conduta e guias de boas práticas previstos no inciso VII poderão servir como elemento indicativos de conformidade, devendo estar de acordo com as métricas para avaliação do respeito a princípios éticos segundo as orientações técnicas indicadas pelo Ministério da Ciência, Tecnologia & Inovação.

Redação atual:

Art. 5º São princípios para o desenvolvimento e aplicação da inteligência artificial no Brasil:

I – finalidade benéfica: os sistemas de inteligência artificial devem buscar resultados benéficos para a humanidade;

II – centralidade do ser humano: respeito à dignidade humana, à privacidade, à proteção de dados pessoais e aos direitos fundamentais, quando o sistema tratar de questões relacionadas ao ser humano;

III – não discriminação: mitigar a possibilidade de uso dos sistemas para fins discriminatórios ilícitos ou abusivos;

IV – busca pela neutralidade: é recomendável que os agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial busquem identificar e mitigar vieses contrários ao disposto na legislação vigente;

V – Transparência: salvo disposição legal em sentido contrário, e observados os segredos comercial e industrial, as pessoas têm direito a serem informadas de maneira clara, acessível e precisa sobre a utilização das soluções de inteligência artificial nas seguintes hipóteses:

a) quando estão diretamente se comunicando com sistemas de inteligência artificial, tal como por meio de robôs de conversação para atendimento personalizado online (chatbot);

b) sobre a identidade da pessoa natural, quando ela operar o sistema de maneira autônoma e individual, ou da pessoa jurídica responsável pela operação dos sistemas de inteligência artificial;

c) sobre critérios gerais que orientam o funcionamento do sistema de inteligência artificial, assegurados os segredos comercial e industrial, sempre que houver potencial de risco relevante para os direitos fundamentais;

VI – segurança e prevenção: utilização de medidas técnicas, organizacionais e administrativas, considerando a utilização de meios razoáveis e disponíveis na ocasião, compatíveis com melhores práticas, os padrões internacionais e viabilidade econômica, voltadas a permitir o gerenciamento e a mitigação de riscos oriundos da operação de sistemas de inteligência artificial durante todo o seu ciclo de vida e o seu contínuo funcionamento.

VII – inovação responsável: os agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial que estejam em uso, devem assegurar a adoção do disposto nesta Lei, documentando seu processo interno de gestão e responsabilizando-se, nos limites de sua respectiva participação, do contexto e das tecnologias disponíveis, pelos resultados do funcionamento desses sistemas.

VIII – disponibilidade de dados: o uso de dados, banco de dados e textos protegidos por direito de autor para fins de treinamento de sistemas de inteligência artificial não implica a violação destes direitos, desde que não impacte a exploração normal da obra por seu titular;

 

Recomendações AIRES: O caput deste artigo também merece alteração para regular todo o ciclo de vida da IA.

A disposição de neutralidade prevista no inciso IV deve ser cogente, tendo em vista as diversas técnicas e ferramentas tecnológicas disponíveis para mitigação de riscos, as quais devem ser amplamente exploradas pelos programadores e desenvolvedores de inteligência artificial, sob pena de omissão.

Com relação ao inciso V, alínea A, a informação de que determinada comunicação está ocorrendo por meio de inteligência artificial deve ser ostensiva sempre, não só em caso de interações com chatbots. Quanto à alínea C, defendemos que o segredo comercial e industrial deve ser flexibilizado em caso de risco relevante, inclusive com a necessidade de auditoria externa, que pode ser feita mediante termo de confidencialidade. A definição de risco relevante também é um ponto que merece esclarecimento pela legislação, haja vista que há métricas que permitem a classificação de riscos. Também ratificamos a inclusão da alínea D, sugerida pela LAPIN, a exemplo do que é exigido pela Lei Geral da Proteção de Dados, de modo a cientificar os indivíduos de possíveis danos ocasionados por falha na inteligência artificial (e.g., reconhecimento facial, GPS, veículos autônomos, etc.).

Ainda, reforçamos as ressalvas feitas com relação à amplitude do trecho que menciona “melhores práticas e padrões internacionais” pelos mesmos motivos expostos anteriormente. Ressalvamos também que a viabilidade econômica não pode ser um quesito para definição de segurança e prevenção, tendo em vista que a depender do risco, nenhuma etapa de segurança deve ser descartada do ciclo de vida da IA por ausência de recursos financeiros para tanto.

Para contornar tais lacunas e ainda incrementar a regulação com princípios éticos imprescindíveis ao uso de tecnologia, especialmente no contexto brasileiro, sugerimos a seguinte redação:

Art. 5º São princípios norteadores do ciclo da vida da inteligência artificial no Brasil:

IV - busca pela neutralidade: os agentes que atuam no ciclo de vida de sistemas de inteligência artificial devem identificar com base em uma gradação e mitigar riscos aos direitos humanos e fundamentais, de modo a prevenir danos materiais, imateriais, físicos, psicológicos, dentre outros reconhecidos pelo ordenamento jurídico, principalmente quando capazes de afetar desproporcionalmente grupos vulneráveis;

[...]

V – Transparência: salvo disposição legal em sentido contrário, e observados os segredos comercial e industrial, as pessoas têm direito a serem informadas de maneira clara, acessível e precisa sobre a utilização das soluções de inteligência artificial nas seguintes hipóteses:

a) quando estão se comunicando com sistemas de inteligência artificial;

[...]

c) sobre critérios gerais que orientam o funcionamento do sistema de inteligência artificial, devidamente auditados por eticistas, engenheiros de segurança e programadores externos especializados, sempre que houver potencial de risco relevante para os direitos fundamentais, assegurada a confidencialidade dos segredos comercial e industrial;

d) sobre qualquer incidente de segurança, ameaça externa, vulnerabilidade ou qualquer evento adverso envolvendo um sistema de IA que esteja interagindo ou utilizando, direta ou indiretamente, que seja capaz de causar risco aos direitos humanos e fundamentais dos indivíduos, à integridade do sistema de IA e, notadamente, à proteção dos dados pessoais.

[...]

VI – segurança e prevenção: utilização de medidas técnicas, organizacionais e administrativas, considerando a utilização de meios razoáveis e disponíveis na ocasião, compatíveis com melhores práticas, os padrões internacionais indicados pela [..], voltadas a permitir o gerenciamento e a mitigação de riscos oriundos da operação de sistemas de inteligência artificial durante todo o seu ciclo de vida e o seu contínuo funcionamento.

[...]

IX – qualidade dos dados: as pessoas jurídicas e naturais que operam sistemas de inteligência artificial devem assegurar a utilização de banco de dados com dados pessoais e não pessoais precisos, atualizados, consistentes e representativos;

responsabilidade e prestação de contas: as pessoas jurídicas e naturais X X – que operam sistemas de inteligência artificial devem adotar medidas administrativas, técnicas e organizacionais que demonstrem aos indivíduos que os sistemas de IA cumprem os requisitos e princípios previstos nesta Lei e com as finalidades pretendidas; e

XI - igualdade: os sistemas de inteligência artificial devem produzir benefícios sociais e econômicos para todos, com foco em reduzir as desigualdades, discriminações negativas e vulnerabilidades sociais.

Redação atual:

Art. 6º Ao disciplinar a aplicação de inteligência artificial, o poder público deve observar as seguintes diretrizes:

I – intervenção subsidiária: desenvolver regras específicas para os usos de sistemas de inteligência artificial apenas quando absolutamente necessário para a garantia do atendimento do disposto na legislação vigente;

II – atuação setorial: a atuação do poder público deverá ocorrer pelo órgão ou entidade competente, considerando o contexto e o arcabouço regulatório específicos de cada setor;

III – gestão baseada em risco: o desenvolvimento e uso dos sistemas de inteligência artificial deverão considerar os riscos concretos e as definições sobre a necessidade de regulação dos sistemas de inteligência artificial e sobre o respectivo grau de intervenção devem ser sempre proporcionais aos riscos concretos oferecidos por cada sistema e à probabilidade de ocorrência desses riscos, avaliados sempre em comparação com:

a) os potenciais benefícios sociais e econômicos oferecidos por aquele sistema de inteligência artificial; e

b) os riscos apresentados por sistemas similares que não envolvam inteligência artificial, nos termos do inciso V;

IV – participação social e interdisciplinar: a adoção de normas que impactem o desenvolvimento e a operação de sistemas de inteligência artificial será baseada em evidências e precedida por consulta pública, realizada preferencialmente pela internet e com ampla divulgação prévia de modo a possibilitar a participação de todos os interessados e as diversas especialidades envolvidas.

V – análise de impacto regulatório: a adoção de normas que impactem o desenvolvimento e a operação de sistemas de inteligência artificial será precedida por análise de impacto regulatório, nos termos do Decreto n.º 10.411, de 2020 e Lei n.º 13.874, de 2019; e

VI – responsabilidade: normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado.

§1º Na gestão com base em risco presente no inciso III acima, nos casos de baixo risco, a administração pública deve incentivar a inovação responsável com a utilização de técnicas regulatórias flexíveis.

§2º Na gestão com base em risco presente no inciso III acima, nos casos concretos em que se constatar alto risco, a administração pública, poderá, no âmbito da sua competência, requerer informações sobre as medidas de segurança e prevenção enumeradas no inciso VI do artigo 5º, e respectivas salvaguardas, nos termos e limites de transparência estabelecidos por esta lei, observados os segredos comercial e industrial.

§3º Quando a utilização do sistema de inteligência artificial envolver relações de consumo, o agente responde independente de culpa pela reparação dos danos causados aos consumidores, no limite de sua participação efetiva no evento danoso, observada a Lei nº 8.078 de 11 de setembro de 1990.

§4º As pessoas jurídicas de direito público e as de direito privado prestadoras de serviços públicos responderão pelos danos que seus agentes, nessa qualidade, causarem a terceiros, assegurado o direito de regresso contra o responsável nos casos de dolo ou culpa.

 

Recomendações AIRES: No caput, recomendando a exclusão do termo “aplicação” de modo a tornar mais abrangente.

No inciso I (intervenção subsidiária), sugerimos a exclusão do presente inciso, tendo em vista não haver clareza sobre quando é estritamente necessária a atuação do Poder Público, a exemplo de tecnologias que envolvem alto risco ou então setores estratégicos para o desenvolvimento econômico do país. Entende-se pela vedação do emprego de IA que envolve graves riscos. Entendemos que o inciso que prevê a gestão baseada em risco para fins de regulação já traça certos limites para que não haja excessiva intervenção na atividade econômica pelo Poder Público. Assim, ao recomendar a supressão do inciso I, incluímos no inciso II a necessidade de observar as diretrizes da Lei de Liberdade Econômica, assegurando a liberdade necessária para atuação empresarial.

 

Com relação ao inciso II (atuação setorial), ao determinar a gestão baseada em risco sem definir os graus de risco das aplicações envolvendo IA, o marco legal enseja subjetividade dos julgamentos e consequente insegurança, ao delegar para o Poder Judiciário resolver os níveis de risco e responsabilização.

No inciso III (gestão baseada em risco), repetimos a necessidade de supressão dos termos desenvolvimento e operação, de modo a englobar todas as etapas do ciclo de vida da IA.

Sobre o inciso VI (responsabilidade), que determina ser subjetiva a responsabilidade civil sobre os danos ocasionados pela inteligência artificial (ressalvada a exceção prevista no § 3º), compreendemos a importância de tal disposição para incentivar condutas de governança positiva, todavia, devem ser observadas outras exceções legais (Marco Civil da Internet, LGPD, Código Penal, entre outros), além das responsabilizações atinentes aos servidores públicos, que a depender da tecnologia utilizada em determinada função, pode melindrar sua autorização pela pessoa física investida de autoridade para esta função – sobretudo considerando o § 4º. No que se refere ao emprego de IA pelo Poder público aplica-se a regra constitucional da responsabilidade objetiva.

Também sugere-se a inclusão de inciso que preveja a utilização de procedimentos de governança no uso de inteligência artificial pelo Poder Público, com a inclusão de um inciso ao final.

Neste sentido, a redação sugerida para este artigo é:

Art. 6º Ao disciplinar a inteligência artificial, o poder público deve observar as seguintes diretrizes:

 

I – atuação setorial: a atuação do poder público deverá ocorrer pelo órgão ou entidade competente, considerando o contexto, o arcabouço regulatório específicos de cada setor e a Lei n.º 13.874, de 20 de setembro de 2019 (Lei de Liberdade Econômica);

II – gestão baseada em risco: os sistemas de inteligência artificial deverão considerar os riscos concretos e as definições sobre a necessidade de regulação dos sistemas de inteligência artificial e sobre o respectivo grau de intervenção devem ser sempre proporcionais aos riscos concretos oferecidos por cada sistema e à probabilidade de ocorrência desses riscos, avaliados sempre em comparação com:

a) os potenciais benefícios sociais e econômicos oferecidos por aquele sistema de inteligência artificial; e

b) os riscos apresentados por sistemas similares que não envolvam inteligência artificial, nos termos do inciso V;

III – participação social e interdisciplinar: a adoção de normas que impactem o desenvolvimento e a operação de sistemas de inteligência artificial será baseada em evidências e precedida por consulta pública, realizada preferencialmente pela internet e com ampla divulgação prévia de modo a possibilitar a participação de todos os interessados e as diversas especialidades envolvidas.

IV – análise de impacto regulatório: a adoção de normas que impactem o desenvolvimento e a operação de sistemas de inteligência artificial será precedida por análise de impacto regulatório, nos termos do Decreto n.º 10.411, de 2020 e Lei n.º 13.874, de 2019; e

V – responsabilidade: normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado.

VI - avaliação de impacto de inteligência artificial: o uso de instrumentos de governança deve ser estimulado e adotado também no Poder Público, de modo que os responsáveis pelos sistemas de inteligência artificial possam identificar impactos negativos para os direitos fundamentais das pessoas físicas e definir salvaguardas e medidas de segurança adequadas para eliminar ou mitigar os riscos;

§1º Na gestão com base em risco presente no inciso II acima, nos casos de baixo risco, a administração pública deve incentivar a inovação responsável com a utilização de técnicas regulatórias flexíveis.

§2º Na gestão com base em risco presente no inciso III acima, nos casos concretos em que se constatar alto risco, a administração pública, poderá, no âmbito da sua competência, requerer informações sobre as medidas de segurança e prevenção enumeradas no inciso VI do artigo 5º, e respectivas salvaguardas, nos termos e limites de transparência estabelecidos por esta lei, observados os segredos comercial e industrial.

§3º Quando a utilização do sistema de inteligência artificial envolver relações de consumo, o agente responde independente de culpa pela reparação dos danos causados aos consumidores, no limite de sua participação efetiva no evento danoso, observada a Lei nº 8.078 de 11 de setembro de 1990.

§4º As pessoas jurídicas de direito público e as de direito privado prestadoras de serviços públicos responderão pelos danos que seus agentes, nessa qualidade, causarem a terceiros, assegurado o direito de regresso contra o responsável nos casos de dolo ou culpa.

Redação atual:

Art. 7º Constituem diretrizes para a atuação da União, dos Estados, do Distrito Federal e dos Municípios em relação ao uso e fomento dos sistemas de inteligência artificial no Brasil:

 

I – promoção da confiança nas tecnologias de inteligência artificial, disseminando informações e conhecimento sobre seus usos éticos e responsáveis;

II – incentivo a investimentos em pesquisa e desenvolvimento de inteligência artificial;

III – promoção da interoperabilidade tecnológica dos sistemas de inteligência artificial utilizados pelo poder público, de modo a permitir o intercâmbio de informações e a celeridade de procedimentos;

IV – incentivo ao desenvolvimento e adoção de sistemas de inteligência artificial nos setores público e privado;

V – estímulo à capacitação e preparação das pessoas para a reestruturação do mercado de trabalho;

VI – estímulo a práticas pedagógicas inovadoras, com visão multidisciplinar, e a importância de ressignificação dos processos de formação de professores para lidar com os desafios decorrentes da inserção da inteligência artificial como ferramenta pedagógica em sala de aula;

VII – estímulo à adoção de instrumentos regulatórios que promovam a inovação, como ambientes regulatórios experimentais (sandboxes regulatórios), análises de impacto regulatório e auto regulações setoriais;

VIII – estímulo à criação de mecanismos de governança transparente e colaborativa, com a participação de representantes do poder público, do setor empresarial, da sociedade civil e da comunidade científica; e

IX – promoção da cooperação internacional, estimulando o compartilhamento do conhecimento sobre sistemas de inteligência artificial e a negociação de tratados, acordos e padrões técnicos globais que facilitem a interoperabilidade entre os sistemas e a harmonização da legislação a esse respeito.

Parágrafo Único. Para fins deste artigo, o Poder Público Federal promoverá a gestão estratégica e orientações quanto ao uso transparente e ético de sistemas de inteligência artificial no setor público, conforme as políticas públicas estratégicas para o setor.

 

Recomendações AIRES: Grande parte da mão de obra brasileira está dedicada a atividades que podem ser substituídas por tecnologias baseadas em inteligência artificial. Tal situação pode ocasionar um colapso econômico, aumentando a desigualdade social no país. Sendo assim, é necessário que o Poder Público fomente políticas públicas de realocação da força de trabalho, incentivando o aperfeiçoamento nas novas habilidades que serão demandadas pelo mercado. Deste modo, sugerimos uma alteração no inciso V.

Assim como recomendado pela LAPIN, denotamos que o Marco Legal não elucida concretamente o que entende por IA ética, ou quais instrumentos de governança e accountability devem ser adotados pelas empresas. Sendo assim, concordamos com a inclusão de um inciso que expresse tais diretrizes, com a seguinte redação:

[...]

V - estímulo à capacitação e preparação das pessoas para a reestruturação do mercado de trabalho, desenvolvendo planos de realocação para a força trabalhista que venha a ser deslocada pela automação.

IX - promover e observar a autonomia e fiscalização humana, prevenção de danos, segurança, não discriminação, bem-estar social e ambiental, privacidade, governança de dados, explicabilidade, responsabilização e tutela de vulneráveis.

Redação atual:

Art. 8º As diretrizes de que tratam os artigos 6º e 7º serão aplicadas conforme regulamentação do Poder Executivo Federal por órgãos e entidades setoriais com competência técnica na matéria, os quais deverão:

I – monitorar a gestão do risco dos sistemas de inteligência artificial, no caso concreto, avaliando os riscos da aplicação e as medidas de mitigação em sua respectiva área de competência;

II – estabelecer direitos, deveres e responsabilidades; e

III – reconhecer instituições de autorregulação.

 

Recomendações AIRES: Conforme já mencionado nos comentários a respeito do art. 4º, disponibilizamos o manual técnico elaborado pela AIRES para figurar como uma diretriz concreta, que certamente dará maior segurança para as empresas:

Art. 8º As diretrizes de que tratam os artigos 6º e 7º serão aplicadas conforme regulamentação do Poder Executivo Federal por órgãos e entidades setoriais com competência técnica na matéria, os quais deverão:

I – monitorar a gestão do risco dos sistemas de inteligência artificial, no caso concreto, avaliando os riscos da aplicação e as medidas de mitigação em sua respectiva área de competência, segundo as orientações técnicas indicadas pelo Ministério da Ciência, Tecnologia & Inovação;

Redação atual:

Art. 9º Para os fins desta Lei, sistemas de inteligência artificial são representações tecnológicas oriundas do campo da informática e da ciência da computação, competindo privativamente à União legislar e normatizar a matéria para a promoção de uniformidade legal em todo o território nacional, na forma do disposto no art. 22, IV da Constituição Federal.

Art. 10 Esta Lei entra em vigor noventa dias após a data de sua publicação.

Sem recomendações da AIRES com relação a estes artigos.

 

Gostaríamos de saudar a atuação do Deputado Eduardo Bismarck, da Deputada Luísa Canziani e de todos os parlamentares envolvidos na aprovação do PL 21/20 e manifestar que o interesse em agregar às discussões sobre diretrizes éticas da IA junto ao Congresso Nacional é no intuito de para o atingimento dos objetivos perseguidos através desta regulação, eliminando as lacunas que podem trazer insegurança jurídica para as empresas e para os investidores que atuam neste mercado, contrariando a intenção do PL.

Ademais, conforme se observa da experiência de outros países e órgãos internacionais, sabemos que a ampla participação da academia e da sociedade civil reveste a futura regulação de grande autoridade perante o cenário internacional, trazendo respeitabilidade para este pioneirismo brasileiro.

É, portanto, com o intuito de colaborar com o desenvolvimento social, econômico, científico e tecnológico do país, garantindo que “Inteligência Artificial” se torne “Inteligência Artificial Benéfica e Para Todos” que nos colocamos à disposição para fornecer todos os esclarecimentos e orientações que estiverem ao nosso alcance. Finalmente, entende-se necessária a designação de órgão da administração pública de natureza autárquica para tratar mais adequadamente da matéria na medida em que atuaria na qualidade de agência. 

AIRES PUCRS

Nicholas Kluge Corrêa - Mestre em Engenharia Elétrica (PUCRS), doutorando em Filosofia (PPGF-PUCRS), Presidente da AIRES PUCRS.

Camila Trindade Galvão - Advogada especialista em Direito Tributário (IBET/RS), mestranda em Direito (PPGD-PUCRS).

Camila Palhares Barbosa - Doutora em Filosofia pela PUCRS.

Carolina Del Pino Carvalho - Graduanda em Psicologia pela PUCRS.

Diogo Fernando Massmann - Mestre em Ciências Cognitivas (Unesp), doutorando em Filosofia (PPGF-PUCRS).

Edson Antônio Sousa Pontes Pinto - Advogado, professor Titular da FCR, doutorando em Direito (PPGD-PUCRS).

Emil Sobottka - Professor Titular da PUCRS, Doutor em Sociologia e Ciência Política pela Universidade de Muenster, pesquisador do Conselho Nacional - CNPq.

Gabrielle Bezerra Sales Sarlet - Advogada, professora Titular da PUCRS, Especialista em Neurociências e ciências do comportamento pela PUCRS, Mestre em Direito pela Universidade Federal do Ceará (UFC), Doutora em Direito pela Universidade de Augsburg (Alemanha), pós- doutora em Direito pela Universidade de Hamburgo(Alemanha) e pela PUCRS.

Guilherme Camargo - Advogado/Historiador/Economista, Mestre em História (UFRGS), mestrando em Filosofia (PPGF-PUCRS).

Henrique Carlos de O. de Castro - Professor Titular da UFRGS, Doutor em Ciência Política (UFRGS).

Jair Tauchen - Doutor em Filosofia/Teologia (PUCRS).

James William Santos - Doutor em Ciências Sociais pela PUCRS.

Lara Sosa Márquez - Mestra em Ciências Sociais, doutoranda em Ciências Sociais (PPGCS-PUCRS).

Nelson Costa Fossatti - Engenheiro de Comunicação, Doutor em Filosofia (PUCRS) e Comunicação (PUCRS).

Nythamar de Oliveira - Professor Titular da PUCRS, Doutor em Filosofia, pesquisador do Conselho Nacional - CNPq.

Paulo Caliendo - Advogado, professor Titular da PUCRS, Doutor em Filosofia (PUCRS) e Direito (PUCSP).

Rodrigo Leal de Moraes - Mestre em Ciências da Computação, coordenador do NAVI, Hub de IA e Ciência de Dados do Tecnopuc/PUCRS.

Rodrigo Mambrini Sandoval Barbosa - Advogado especialista em Direito Empresarial, mestrando em Direito (PPGD-PUCRS).