top of page

Cruzando o abismo ético na IA: do código à consciência, um convite para os profissionais de tecnologia.




Alucinação faz parte

Soluções incríveis também.

Precisão não é o forte,

Mas a predição te faz ir além.

Não basta somente saber programar,

Existem riscos e é preciso analisar.

O bem da sociedade é a prioridade.

A ética não deve ser apenas uma máscara encobrindo a verdade.

A ética pode ser um convite para a igualdade.


Ética na inteligência artificial já faz parte do nosso vocabulário atual, mas existe uma ponte a ser construída para chegar até a prática do dia a dia dos profissionais de tecnologia.


"Embora seja encorajador testemunhar uma consciência crescente da necessidade de ética, há poucas evidências de boas práticas" - Winfield, A. F., and Jirotka, M.

Do código à consciência


Pessoalmente falando, eu sempre achei que a tecnologia era apenas para o bem e que tudo que era ruim a partir do uso da tecnologia, era culpa do uso que as pessoas resolveram dar para a tecnologia.


Então, falar em ética na tecnologia, não me parecia uma “responsabilidade” da área de tecnologia. E tão pouco eu sabia dizer de quem era a responsabilidade, risos. Eu achava que assim como sempre existiu o bem e o mal, infelizmente, não havia nada a ser feito.


Mas eu estava errada e recentemente, eu me dei conta disso.

"O que percebemos como verdade depende do contexto em que o vemos." -Humane Tech

Minha ficha caiu, quando eu soube que as redes sociais possuem inteligências de muitas áreas de conhecimento, inclusive de psicologia e neurociência, para manter as pessoas utilizando os softwares constantemente e atingir o maior engajamento possível. Tudo foi intencionalmente pensado e testado para atrair a atenção das pessoas. Os riscos disso? Antes, eu achava que podiam ser problemas de visão, de postura. Que ingenuidade a minha, os riscos reais sempre foram de ansiedade, déficit de atenção, vício e por aí vai.


"De longe, o maior perigo da Inteligência Artificial é que as pessoas concluam cedo demais que a compreendem." - Eliezer Yudkowsky


O abismo inicial


Em pensar que quando comecei a trabalhar usando computador, em 2000, as políticas das empresas, incluíam o tema de ética direcionado ao uso consciente dos recursos da empresa. Na época, era falado sobre a proibição do uso do computador para fins pessoais, pornografia e coisas previstas na lei, da época.


Depois, essas políticas foram atualizadas prevendo o cuidado com vazamento de informações e vírus, basicamente. Para mim, parecia que o assunto de ética na tecnologia se resumia a isso, apenas.


"Comportamento ético é fazer a coisa certa quando ninguém mais está olhando – mesmo quando fazer a coisa errada é legal." – Aldo Leopold

A ética na tecnologia além dos manuais de ética corporativas


Mas, na verdade, o tema da ética na tecnologia existe desde 1977, e nessa época já se falava sobre danos que a tecnologia poderia causar para a sociedade. Havia a preocupação no crescimento de tecnologias para criar armas, bombas, por exemplo.


E atualmente, na guerra entre Rússia e Ucrânia, uma das armas de ataque são os ciberataques, sendo considerada a guerra travada por códigos e programação. Logo, a preocupação sempre foi real e infelizmente, ainda existe.



Por que a Ética na inteligência artificial é importante?


Quando falamos de inteligência artificial, devemos lembrar que essa tecnologia tem tanto a capacidade de contribuir com a inteligência humana, quanto de "substituir a nossa inteligência" ao realizar determinas tarefas.


Exemplos de contribuição com a nossa inteligência ocorrem quando a inteligência artificial é como um assistente e não toma decisões por nós, apenas nos fornece informações, ou seja, responde aquilo que foi perguntado. Isso ocorre na Alexa, Siri, Google home e outros assistentes virtuais.


Já quando a aplicação de inteligência artificial realiza tudo sozinha, cria coisas e toma decisões, estamos lidando com situações mais complexas. Exemplo: escrever redações, criar músicas e imagens, dirigir o carro por nós, realizar cirurgias médicas sozinhos, e etc.


Em ambas as situações, de contribuição ou de substituição da decisão humana, é preciso atenção, já que alucinações, vieses e outros fatores de risco podem estar presentes nos dois casos, mas aquilo que substitui a decisão de uma pessoa, requer uma dedicação muito maior.


Quando foi criada a ética na IA?


O primeiro código de ética na inteligência artificial surgiu em 1942, quando Isaac Asimov, criou 3 leis para a garantir a ética na robótica, conforme descrito a seguir.


  • Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano seja ferido;

  • Um robô deve obedecer às ordens dadas pelos seres humanos, exceto quando tais ordens entrarem em conflito com a primeira lei;

  • Um robô deve proteger a sua própria existência, desde que tal proteção não entre em conflito com a primeira ou a segunda lei;

O termo inteligência artificial ainda não existia e se tornou popular somente em 1956. Essas leis da robótica, tiveram algumas atualizações no decorrer do tempo e guiaram a ética na inteligência artificial por décadas.


Atualmente, a ética na inteligência artificial significa cuidados desde a concepção da ideia, durante o desenvolvimento, até o uso final das soluções de inteligência artificial, a fim de prevenir impactos negativos na vida das pessoas e no ambiente.


Como existem mais de 100 frameworks de ética na inteligência artificial, não existe um caminho único a ser seguido e a ideia não é aprender sobre todos esse frameworks, para dar os primeiros passos. Mais importante do que saber o que é, é preciso saber como, quando e o porquê implementar, que é a parte mais importante.


Vale ressaltar que a ética na inteligência artificial não se limita somente a seguir o que está na lei. A lei ou a regulamentação define os padrões mínimos, porém, nenhuma lei vai te dizer como adaptar o seu dia a dia à tal lei. Essa responsabilidade é de cada negócio.


"Ética não é o mesmo que seguir a lei, porque a lei pode ser desatualizada e não refletir a realidade, por exemplo." - adaptado de Markkula Center for applied ethics

Exemplo de Conflitos Atuais de Ética na IA


Talvez, seja mais fácil ilustrar ética na inteligência artificial com casos reais. Em dezembro de 2022, o aplicativo Lensa AI, que cria imagens mágicas de avatar, a partir de fotos das pessoas, foi acusado de usar pinturas de obras de arte para treinar seus modelos de inteligência artificial sem a permissão dos artistas das tais obras de arte. Houve também reclamações que a Lensa estava usando bilhões de fotos de pessoas disponíveis na internet, sem qualquer consentimento.


Em maio de 2023, a empresa ViaQuatro que administra o metrô linha amarela em São Paulo, foi condenada a pagar R$ 500 mil, por utilizar imagens de câmeras de reconhecimento facial no metrô para fins de anúncios e publicidade.


A Faception é um empresa que utiliza reconhecimento facial para vários fins, inclusive para supostamente identificar se uma pessoa é um bom pagador. Segundo a empresa, eles analisam a personalidade da pessoa e definem se ela é confiável. Essa solução é comercializada para bancos decidirem quem deve ter um crédito financeiro aprovado.


Estes são apenas três exemplos para ilustrar nossa conversa. Cada utilização da inteligência artificial tem um grande potencial de gerar impactos positivos e também negativos. Por onde será que cada um de nós podemos colocar isso em prática?


Profissionais que atuam com ética na IA


Curiosamente, observei que não sou a única profissional da área de tecnologia, com mais de duas décadas de experiência na área, que não tenho o assunto ética na tecnologia, no meu currículo. Inclusive, não conheço ninguém que tenha essa especialização: ética na tecnologia, em destaque.


Noto que é mais comum acharmos profissionais especializados em segurança de tecnologia da informação, ESG (ambiental, social e governança) e mais recentemente, em privacidade dos dados, devido a criação da LGPD (lei geral de proteção de dados), porém a ética na inteligência artificial, especificamente, vai muito além de segurança, ESG e privacidade.


Falando especificamente sobre profissionais dedicados para atuar com ética na inteligência artificial, temos os AI Ethicist e o nome do cargo varia de empresa para empresa. Pode ser tanto Data Privacy and Ethics Lead, quanto  Director of Responsible Innovation, como no Facebook.


No Brasil, há poucos profissionais nessa área, por enquanto. Mas, de qualquer forma, as questões de ética na inteligência artificial nunca serão apenas de responsabilidade de uma pessoa ou cargo. De acordo com a maturidade da empresa, essa responsabilidade se torna coletiva e faz parte da cultura da empresa.


A travessia do abismo da ética para a prática


Enquanto isso engatinha ou não acontece na sua empresa, separei exemplos de atuações práticas que você pode utilizar em cada processo de desenvolvimento de software envolvendo a inteligência artificial.


Você pode começar a colocar em prática aos poucos e ir compartilhando com colegas de trabalho, para ganhar adeptos. Acredite, pode funcionar e você não precisa achar que só deve começar quando tiver alguma regulação ou quando o seu gestor te pedir. Inclusive, esperar pela regulação pode ser uma catástrofe, porque é preciso que existam iniciativas conjuntas de mudança. Uma lei ou regulação por si só, pode existir somente "no papel" e não na vida real.

"Já existem leis antissuborno e anticorrupção, por exemplo, mas a sua aplicação é lenta e os recursos para aplicá-la, rastreá-la, monitorá-la e testá-la são limitados. O mesmo pode ocorrer com a regulação da inteligência artificial." - adaptado de Asha Palmer

"As leis não podem construir uma moeda de confiança, quando existe um déficit de verdade." - Ronald JJ Wong

A Singapura, é um exemplo de sucesso de quem optou por deixar a regulação da inteligência artificial em segunda prioridade e criou um modelo voluntário de implementação e auto avaliação para as empresas se adequarem, chamado ISAGO. E isso é apenas uma parte do projeto da fundação sem fins lucrativos, AI Verify, que eles criaram para incentivar testes técnicos nos modelos de IA e registrar verificações de processos. Uma verdadeira comunidade global open source para ajudar as empresas serem mais transparentes e construir confiança.


Assim como a Singapura fez, acredito que o caminho seja olhar para o dia a dia das empresas e saber como os processos vão traduzir na prática os principais princípios éticos da inteligência artificial, ou seja, a governança da inteligência artificial, independente de regulações. A conscientização, a prática e o compartilhamento de experiências trarão a verdadeira profundidade e esse é o convite.


Separei abaixo, alguns exemplos com etapas de desenvolvimento da inteligência artificial e soluções práticas para te inspirar. Tudo listado aqui é fruto de grandes pesquisadores e deixei os links das pesquisas em cada link para você consultar.

Etapas de desenvolvimento de IA

Exemplo de utilização na prática

Categoria

identificar os melhores casos de uso de IA

processo

Design

processo


framework

Criação / coleta de dados

processo



Avaliação dos dados

auditoria

Pré-processamento

processo

Treinamento do modelo

algoritmo


algoritmo

Teste e avaliação

auditoria


métrica


processo


auditoria

Implantação

Modelo de licença de software

Monitoramento

processo


O desafio é grande e esperar o mundo perfeito para ter todas as respostas é inviável.


"É impossível melhorar e ser perfeito ao mesmo tempo." - Julia Cameron

O enfrentamento dos riscos do algoritmo X metas da empresa


Em ambientes de trabalho onde a meta principal é a implantação de software muito , é muito importante saber como lidar quando algo der errado, por exemplo, quando você analisar que existe um risco de injustiça e ninguém se preocupar com isso, no seu trabalho.


Profissionais de tecnologia que já atuam com inteligência artificial e conhecem sobre ética na IA, já relatam uma sensação de impotência por se sentirem sem forças para impedir a continuidade de um projeto. Há relatos também de preocupação por não saber ao certo até onde cada profissional pode ser corresponsável por qualquer dano que venha a ocorrer. Outros afirmam que a transparência exigida pela ética em IA conflita com as políticas internas de confidencialidade de negócio. Eu me solidarizo com essa dor.


Particularmente falando, teve uma vez que me deparei com dilemas éticos num projeto de TI e pedi para sair do projeto, sem descrever com todas as letras o motivo da minha saída. A situação envolvia mascarar informações financeiras, quase como ocorreu no caso da fraude contábil na Americanas. Foi muito tenso passar por essa situação.


Vejo que se essa situação ocorresse hoje, eu faria diferente. Eu deixaria claro o motivo da minha saída e divulgaria os riscos abertamente para todos os possíveis afetados pelo problema, independente de hierarquias e do que estivesse em risco. Agora, com o crescimento da inteligência artificial, eu conheço muito mais sobre esse tema de ética na tecnologia e na inteligência artificial, consequentemente.


E se fosse com você, você saberia como lidar com algum dilema de ética envolvendo a inteligência artificial ou qualquer outra tecnologia?

"Na ausência de manuais fáceis, há muito a ganhar através da partilha mais frequente de observações e trocas de experiências. Por mais assustadoras que sejam as nossas tarefas, devemos aos nossos cidadãos do presente e do futuro a determinação de tentar." - Josephine Teo

Para te ajudar nessa reflexão, responda para si mesmo: Você tem com quem conversar sobre esse tema? Se por algum motivo a sua resposta for não, saiba que você pode contar comigo. Vamos juntos(as) mudar essa realidade. 🙂 


Espero ter deixado você inspirado(a) para fazer a diferença na travessia do abismo ético da inteligência artificial.


 
 
 

Comentarios


Inovar

bottom of page