Ética na IA
Foto: Reprodução
Artigo aborda normas e controles criados para garantir que o desenvolvimento e utilização da inteligência artificial não traga consequências negativas à sociedade
O estudo da Ética na Inteligência Artificial (IA) surgiu da necessidade de abordar os danos individuais e sociais que as tecnologias de IA podem causar. Mesmo que de forma involuntária, ou seja, sem intenção premeditada de criar aplicativos que invadam a privacidade dos usuários, que sejam discriminatórios ou tendenciosos, essas soluções podem criar impactos sociais em áreas como trabalho, educação e saúde.
A Ética na IA possui conjunto de princípios e valores que guiam o desenvolvimento, o uso e implantação da inteligência artificial e reforçam aspectos de responsabilidade, justiça, segurança e transparência.
Um dos maiores desafios é garantir que os algoritmos sejam justos e não perpetuem preconceitos ou discriminações. Isso pode ser alcançado através de processo de qualificação e organização dos dados (curadoria), da análise dos dados que serão utilizados no treinamento dos modelos de IA e também a implementação de medidas para tratar possíveis vieses.
A exemplo de outros países preocupados com o tema, no Brasil foi criada a Estratégia Brasileira de Inteligência Artificial – EBIA (Portaria MCTIC nº 1.122/2020) e a área de IA foi definida como prioridade, no que se refere a projetos de pesquisa, de desenvolvimento de tecnologias e inovações. Um dos objetivos da EBIA é contribuir para a elaboração de princípios éticos para o desenvolvimento e uso responsável de IA.
Ainda sobre o tema, a norma IEEE (Std 7000 – 2021) aborda preocupações éticas, com o objetivo de mostrar que as organizações devem projetar sistemas de IA considerando valores éticos sociais, tais como transparência, sustentabilidade, privacidade, justiça e responsabilidade, bem como valores normalmente considerados na engenharia de sistemas, como eficiência e eficácia.
O projeto de lei (PL 2338/23) que regulamenta o desenvolvimento e uso da Inteligência Artificial pelo poder público e sociedade em seu texto estabelece princípios, direitos, deveres e instrumentos de governança para IA. Entre outros pontos, propõe que o uso da IA deve fundamentar-se no respeito aos direitos humanos e aos valores democráticos, na igualdade, não discriminação, pluralidade, livre iniciativa e na privacidade de dados. Como princípio a garantia de transparência sobre o seu uso e funcionamento e cita a efetiva implementação de código de ética.
É de vital importância que sejam criados controles que garantam que a IA seja desenvolvida e utilizada de forma ética para evitar consequências negativas aos cidadãos e sociedade. As preocupações com a dignidade humana e com a valorização do bem-estar humano devem estar presentes desde a prospecção (ética by design) dessas ferramentas até a verificação de seus efeitos na realidade dos cidadãos.
No Serpro, guias corporativos estão em processo de evolução para a inclusão dos aspectos relacionados à Ética com elaboração de instrumentos como “Checklist de Riscos Preliminar”, “Definição de Grau de Atenção dos Sistemas de IA”, “Avaliação de Impacto Ético”, “Avaliação de Impacto Algorítmico”, “Mapeamento de Vulnerabilidades”. Esses artefatos alinham a Governança de IA ao operacional, de forma antecipada ao marco legal
Em respeito à diversidade, equidade e direitos humanos, com soluções de IA inseridas neste contexto e estabelecendo uma política de IA corporativa, o Serpro se mantém alinhado às orientações internacionais, à sociedade e ao estado brasileiro. Tratar valores éticos reforça o reconhecimento do papel do Serpro como promotor de bem-estar e progresso social.
O projeto de Governança de Inteligência Artificial do Serpro (GovIA), criado em fevereiro de 2023, tem como objetivo principal a construção de arcabouço estruturante de Governança para IA incorporando os aspectos éticos, de segurança, transparência e de responsabilidade. Sendo mais uma iniciativa que direciona, previamente, o Serpro para a conformidade legal e ética exigida pela Lei Geral de Proteção de Dados (LGPD) e para os preceitos do Marco Regulatório de IA (PL 2338), a Governança de IA é o caminho para que o Serpro se torne uma referência em IA não só em aspectos técnicos, mas também no processo de desenvolvimento, políticas e normas para a utilização da IA de forma ética, transparente e responsável, disseminando a cultura da ética e confiabilidade – IA Responsável.
_______________
Sobre os autores
Nadja Velasco de Loyola é formada em Engenharia de Sistemas e Computação pela Universidade do Estado do Rio de Janeiro (UERJ). É Analista de Tecnologia do Serpro desde 1987, possui MBA em Ciência de Dados (Big Data) pelo Instituto de Gestão e Tecnologia da Informação (IGTI), pós-graduação em Tecnologia e Projetos de Sistemas Internet pela Universidade Estácio de Sá (Unesa) e Aplicação de Banco Dados Distribuído pela PUC-RJ. Integra as Redes Corporativas de Privacidade e Proteção de Dados e Curadoria de Dados. É membro do Comitê do Guia de Desenvolvimento Confiável e integra equipe do Escritório de Governança de Dados do Serpro, atuando no projeto de Governança de IA.
Aline Macohin é Doutora em Direito pela UFPR, com foco em Governança de IA. Mestre em Computação Aplicada pela UTFPR. Advogada. Membro da Comissão de Direito Digital e Proteção de Dados da OAB/PR. Professora de pós-graduação da PUCPR. Pesquisadora dos grupos de pesquisa e-Justiça (UFPR) e Lawgorithm. Membro da GovDados, Women in AI e Brasileiras em Processamento de Linguagem Natural. Autora do site https://www.iaresponsavel.com.br. É Analista de TI do Serpro desde 2015. É membro do Comitê do Guia de Desenvolvimento Confiável do Serpro e atualmente integra equipe responsável pelo projeto de Governança de IA.
Inah Lúcia Barbosa (Tuti) possui pós-graduação em Arquitetura de Sistemas pela Estácio de Sá e em Engenharia de Sistemas pela Universidade Federal de Pernambuco (UFPe). Entrou no Serpro em 1986, trabalhou com desenvolvimento de sistemas e na área de negócio, atendendo ao cliente Receita Federal, e participou de projetos pioneiros da empresa. Com vasta experiência em gestão de projetos, área que atua desde 1997, se especializou em projetos de normatização, sistemáticas e padronização com equipes multidisciplinares. Atualmente integra equipe de gestores do Escritório de Governança, sendo responsável, dentre outras frentes, pela Coordenação do projeto de Governança de IA (GovIA).
Vladimir Fagundes é Doutor em Informática pela Universidade Federal do Rio de Janeiro (PPGI/UFRJ), Mestre em Engenharia de Sistemas e Ciência da Computação pela Universidade Federal do Rio de Janeiro (UFRJ/COPPE) e Pós-graduado em Gestão Pública pela UNB. É Analista de Tecnologia do Serpro desde 2006. Instrutor da LGPD Educacional Serpro e faz parte das Rede Acadêmica; Rede de Privacidade, Rede de Inteligência e é membro do Comitê do Guia de Desenvolvimento Confiável. É um dos autores do livro “Governança em privacidade e proteção de dados: uma versão integrada dos negócios empresariais”, publicado pelo Serpro em dezembro de 2022. Coordenador Acadêmico da Associação Brasileira de Governança Pública de Dados Pessoais (govDADOS). Atua no Escritório de Governança de Dados do Serpro com desenvolvimento e sustentação da Governança de IA.
Fabiano Graça é pós-graduado pela UFRJ em gestão de tecnologias integradas. Possui vasta experiência em desenvolvimento de sistemas e projetos multidisciplinares. Entrou no Serpro em 2010 e atua na área de gestão desde 2017. Como Gerente de Departamento do Escritório de Governança desde 2019, democratiza o tema Governança de Dados, desenvolvendo os programas de Governança de Dados e de Governança de IA do Serviço Federal de Processamento de Dados (Serpro). É Gestor Corporativo de Dados do Serpro e, com sua experiência, contribui sobre os temas relacionados, para o Governo Federal e sociedade.
Fonte: Serpro