Um grupo de especialistas da União Europeia divulgou nesta semana um documento com diretrizes éticas para nortear o desenvolvimento de tecnologias de inteligência artificial. Estas são utilizadas em diversas atividades, da seleção as publicações mostradas nas redes sociais a sistemas de avaliação de crédito.
O termo inteligência artificial é empregado para caracterizar sistemas que ofertam serviços a partir de uma sofisticada capacidade de processamento de informação, semelhante ou até superior à de seres humanos. Determinadas tecnologias já tiveram desempenhos melhores do que de pessoas, seja em um jogo, em um diagnóstico ou no reconhecimento de imagens ou textos.
O documento faz parte de um processo da União Europeia para estabelecer uma visão “centrada em humanos” para a construção de soluções “confiáveis” desse tipo de sistemas. Esta pode se materializar tanto em legislações e normas administrativas como em orientações gerais para os fabricantes e projetos de pesquisa.
Uma diretriz é a relevância da participação e do controle dos seres humanos, com objetos técnicos que promovam o papel e os direitos das pessoas, e não prejudiquem estes. Uma orientação complementar é a garantia de que os sistemas considerem a diversidade de segmentos e representações humanas (incluindo gênero, raça e etnia, orientação sexual e classe, entre outros), evitando atuações que gerem discriminação.
Segundo o documento, os sistemas de IA devem ser “robustos” e “seguros”, de modo a evitar erros ou a terem condição de lidar com estes, corrigindo eventuais inconsistências. Esses problemas podem ter sérios impactos na sociedade, como a discriminação de pessoas no acesso a um serviço ou até mesmo quedas de bolsas cujas compras e vendas de ações utilizam essas tecnologias.
Ao mesmo tempo, o texto destaca a necessidade de assegurar a transparência dos sistemas. Isso porque a opacidade dessas tecnologias pode trazer riscos, uma vez que seu caráter inteligente torna mais difícil entender porque determinada operação ou decisão foi tomada de uma determinada maneira e não de outra. Assim, os autores defendem que um sistema de IA deva ser “rastreável” e “explicável”, para que não haja dificuldades na compreensão de sua atuação.
Pelo documento, essas soluções técnicas devem assegurar a privacidade e o controle dos cidadãos sobre seus dados. As informações coletadas sobre um indivíduo não podem ser utilizadas para prejudicá-lo, como em decisões automatizadas que o discriminam em relação a alguém. Estudos já mostraram como essas tecnologias podem incorporar vieses, privilegiando, por exemplo, pessoas brancas em detrimento de negros na caracterização ou na oferta de um serviço.
O vice-presidente para o Mercado Único Digital da União Europeia, Andrus Ansip, destacou a importância do tema. “A dimensão ética da Inteligência Artificial não é só um luxo ou um acréscimo. É somente com confiança que nossa sociedade pode se beneficiar plenamente dessas tecnologias. Uma IA ética é uma proposta que traz ganhos e que pode ser uma vantagem competitiva para a Europa: ser uma líder de tecnologias de IA centradas em pessoas que usuários possam confiar”.
Source: Agência Brasil