Quem deve escrever as regras para a era da inteligência artificial (IA)? Faça essa pergunta a um dos sistemas de IA mais conhecidos da atualidade, o ChatGPT, e ele lhe dirá que — bem, é complicado: “Existem muitas perspectivas diferentes sobre o assunto”, é a resposta do chatbot desenvolvido pela empresa de tecnologia OpenAI, baseada em São Francisco, nos EUA.
“Como um modelo de linguagem de IA, não tenho opiniões pessoais, crenças ou preconceitos”, acrescenta, dizendo ainda que os esforços devem “conter contribuições de uma ampla gama de partes interessadas, incluindo especialistas na área de IA, representantes de outras áreas relevantes, como direito, ética e política, comunidades afetadas, sociedade civil e governo”.
Lilian Edwards, professora de direito, inovação e sociedade na Universidade de Newcastle, no Reino Unido, diz à DW que “não discorda” da avaliação do chatbot. “Mas eu acrescentaria que as regras devem ser obrigatórias”, ressalta.
Em poucos meses, o ChatGPT tornou-se o mais proeminente de uma nova geração de sistemas de “IA generativa”; outros se chamam LaMDA, DALL-E ou Stable Diffusion. Os programas produzem texto, código, imagens ou até mesmo vídeos. Os resultados são tão convincentes que muitas vezes é impossível dizer que não foram criados por um humano.
A expectativa é que a IA generativa revolucione a forma como as pessoas trabalham ou encontram informações online. Mas a tecnologia também levantou temores de que possa tirar milhões de empregos ou seja usada para produzir desinformação, gerando um debate sobre quais novas regras são necessárias.
“Precisamos de regulamentação”, diz a professora de direito Lilian Edwards. Isso significaria aplicar a legislação existente e redigir novas leis para IA. Ao mesmo tempo, ela alerta que, embora programas como o ChatGPT dominem as manchetes, eles “não são, sequer de longe, o único acontecimento na área de IA”, ressaltando haver o perigo de que eles estejam ofuscando outras inovações importantes.
A ascensão da IA
A pesquisa em inteligência artificial remonta à década de 1950. Mas foi somente no início dos anos 2010 que os engenheiros começaram a criar IA em aplicações do dia-a-dia. Nos últimos dois anos, os sistemas também ficaram cada vez melhores na criação de conteúdo novo.
Esses avanços, no entanto, passaram despercebidos pelo público em geral até o final de novembro de 2022, quando a OpenAI lançou o protótipo do ChatGPT. Ele é fácil de usar: tudo o que se precisa fazer é digitar uma tarefa ou pergunta em uma barra de texto. Peça, por exemplo, um resumo do Fausto de Johann Wolfgang von Goethe no estilo de uma pessoa de 14 anos, e o chatbot cospe um texto que parece ter sido escrito por um adolescente. Peça ao sistema para escrever o mesmo texto no estilo de Aldous Huxley, e ele produz a resposta em prosa típica do século 20.
É a primeira vez que uma ferramenta sofisticada de IA é disponibilizada em um site gratuito, gerando um debate sobre o que o surgimento da IA generativa pode significar para a criatividade humana. Professores universitários vaticinaram “a morte dos ensaios acadêmicos”. Os jornais anunciaram que usariam o software para ajudar seus repórteres a escrever notícias.
Joanna Bryson, professora de ética e tecnologia na Hertie School, com sede em Berlim, enfatiza a importância de aumentar a conscientização sobre como os sistemas de IA funcionam, por exemplo, incluindo-os nos currículos escolares – e para ajudar as pessoas a desenvolverem uma compreensão de como se comunicar com uma tecnologia que parece ser um humano, mas não é. “Gostaria de ver as crianças aprenderem isso na escola e depois irem para casa contar aos pais”, afirma.
Dorothee Feller, secretária de Educação do estado de Renânia do Norte-Vestfália, o mais populoso da Alemanha, anunciou neste mês de fevereiro estar planejando medidas concretas nesse sentido. Em vez de tentar banir a IA das escolas, seu departamento está trabalhando em diretrizes para que os professores tenham uma “visão crítica construtiva” das possibilidades de tal software para o ensino.
Coisa de ficção científica?
Mas a euforia inicial diminuiu quando, em fevereiro, a gigante americana da tecnologia Microsoft anunciou que havia equipado seu mecanismo de busca Bing com uma versão avançada do ChatGPT e permitiu que um grupo de testadores brincasse com ele.
Logo depois, eles publicaram capturas de tela com diálogos assustadores com o software. Em um deles, o chatbot se mostrava grosseiro e confrontativo, depois começou a referir a si mesmo como “Sydney” e chegou a expressar até mesmo o desejo de ser humano.
Os especialistas foram rápidos em explicar que o bot não possui personalidade nem tem capacidade para expressar emoções e que seus comentários de aparência humana eram fruto da tecnologia em que é baseado: o sistema foi treinado analisando grandes quantidades de texto da internet. Isso o torna incrivelmente bom em adivinhar qual palavra deve seguir a anterior – tão bom que soa como um ser humano emocional.
No entanto, os incidentes tiveram grande repercussão nas redes sociais. “As pessoas perceberam que está se tornando cada vez mais difícil distinguir as criações humanas das dos sistemas de IA”, diz a professora de ética Joanna Bryson. “E essa experiência é algo totalmente novo”, sublinha. No entanto, a especialista acredita que “as regras que recomendamos há cerca de uma década ainda são suficientes”.
Desde meados da década de 2010, centenas de instituições – desde os gigantes da tecnologia do mundo até a Igreja Católica e organizações internacionais como a ONU – divulgaram diretrizes não vinculativas sobre como desenvolver e usar a IA de forma responsável. Esses textos provavelmente foram as fontes de onde o ChatGPT tirou sua resposta citada no início deste artigo.
Mas, à medida que a tecnologia avança rapidamente, agora há um consenso de que diretrizes voluntárias por si só não serão suficientes, segundo a jurista Lilian Edwards.
Por isso, há anos os governos de todo o mundo têm trabalhado em uma legislação. Uma visão geral pela Organização para Cooperação e Desenvolvimento Econômico (OCDE) lista iniciativas políticas em mais de 65 países, da Argentina ao Uzbequistão. No entanto, apenas alguns, até agora, seguiram com leis rígidas. A China é uma exceção notável, pois divulgou uma legislação sobre IA no ano passado.
Ponta do iceberg
No Ocidente, todos os olhos estão voltados para a União Europeia. Já em 2018, a UE – muitas vezes considerada pioneira em regulamentação – começou a trabalhar no que agora é chamado de “Lei da IA”. Cinco anos depois, as instituições do bloco devem iniciar as discussões finais que podem levar a leis que obriguem, por exemplo, empresas a revelarem aos clientes as situações em que estes estiverem, na verdade, conversando com software como o ChatGPT.
Mas especialistas como Edwards alertam que a IA generativa é apenas a ponta do iceberg. Empresas e instituições públicas há muito começaram a usar tecnologia semelhante para automatizar decisões em outras áreas, desde a vigilância até a justiça criminal, onde o risco de danos permanentes é ainda maior.
Curiosamente, até o CEO da empresa por trás do próprio ChatGPT emitiu um aviso semelhante. Sam Altman, da OpenAI, escreveu no Twitter em meados de fevereiro que “embora as ferramentas de IA da geração atual não sejam muito assustadoras, acho que não estamos muito longe das potencialmente assustadoras”.
Por isso, o próximo conjunto de diretrizes de IA da UE incluirá regras particularmente rígidas para “aplicações de alto risco”, para garantir, por exemplo, que a IA não discrimine minorias vulneráveis. Funcionários em Bruxelas esperam que as leis se tornem referência internacional para a regulamentação de IA e sejam copiadas por governos em todo o mundo.
*Com informações do site DW