A inteligência artificial (IA) está se tornando cada vez mais presente em nossas vidas, desde aplicativos de reconhecimento facial até carros autônomos. Embora a IA possa oferecer muitos benefícios, também apresenta alguns problemas éticos. Um dos principais problemas éticos da IA é a questão da responsabilidade. Se algo der errado, quem será responsabilizado? Será o programador que criou o algoritmo? Será a empresa que o implementou? Ou será a própria IA? Essa questão ainda não foi totalmente resolvida e é algo que precisa ser considerado ao desenvolver sistemas de IA.
Outro problema é a questão da privacidade. Como os dados dos usuários são coletados, armazenados e usados por sistemas de IA? Quem tem acesso a esses dados? Como eles são protegidos? Estas são questões importantes que precisam ser consideradas ao desenvolver sistemas de IA. Além disso, a IA também pode levar a problemas relacionados à discriminação. Se os algoritmos de IA forem treinados com dados que contenham preconceitos, eles podem refletir esses preconceitos e levar a decisões injustas. Por exemplo, alguns sistemas de reconhecimento facial têm sido acusados de discriminar pessoas de cor.
MEDO NAS TELAS – A menina-robô do sucesso M3gan, que vira má: eterno fascínio pelo tema –Geoffrey Short/Universal Pictures/.
Os dois parágrafos acima, em exatas 183 palavras, foram escritos a pedido de VEJA por um mecanismo de inteligência artificial, o ChatGPT, um “modelo de linguagem de grande porte” que bebe de informações na internet e aprende com o uso, enriquecendo seu vocabulário. Ao comando, em português — “escreva o início de uma reportagem sobre os problemas éticos da inteligência artificial” —, o mecanismo não demorou mais de um minuto para entregar o trabalho. Razoável, sem dúvida, com as ideias no lugar, mas repleto de lugares-comuns, expressões repetidas à exaustão e um tanto óbvio. As ilustrações ao lado também foram desenhadas por robôs, como o MidJourney e o AI Image Generator.
Somente quem esteve em Marte nos últimos dias, ou distante de um smartphone — o que parece ainda mais improvável —, não ouviu falar no ChatGPT. A ferramenta foi desenvolvida por uma companhia de São Francisco, nos Estados Unidos, a OpenAI, em 2018. Com aporte inicial de 1 bilhão de dólares de nomes como Elon Musk, agora na virada de 2022 para 2023 ganhou tração. Atrai 1 milhão de usuários por semana. Está avaliada em 29 bilhões de dólares e aguarda investimento de 10 bilhões de dólares da Microsoft. O Google, sempre preocupado com a concorrência, com algo que o tire do pedestal, declarou internamente o “código vermelho”. Em paralelo ao corte recente de 12 000 funcionários, anunciou o aperfeiçoamento do sistema de busca por meio de IA e outros vinte projetos “artificiais” ao longo do ano. É como um alarme de incêndio — pode estar chegando o momento tão temido pelas empresas do Vale do Silício, o desembarque de uma mudança tecnológica que vire o negócio de cabeça para baixo.
Não demorou, é natural, para que surgissem severas dores de crescimento. O ChatGPT foi proibido em todas as escolas públicas de Nova York, dada sua capacidade de facilitar lições de casa afeitas a enganar os professores. Rapidamente, os donos da OpenAI anunciaram a confecção de uma espécie de marca-d’água eletrônica que identifique as dissertações robóticas. Em muitos outros lugares do mundo há movimento para bani-lo, especialmente de entidades educacionais — embora fosse mais inteligente conviver com a inovação, em vez de levá-la ao cadafalso. Educadores mais sensatos tendem a não brigar com a tecnologia — sabem que fazer as perguntas adequadas ao sistema, colá-las de modo coerente, usando a máquina como apoio para o raciocínio, pode ter valor. Um grupo de cientistas ouvidos pela reputada revista Nature, porém, protesta contra uma prática insólita: o crédito ao ChatGPT como autor de artigos acadêmicos. “A atribuição de autoria acarreta responsabilidade pelo trabalho, o que não pode efetivamente ser aplicado a ferramentas como essa”, diz Magdalena Skipper, editora-chefe da Nature em Londres. O jornal The Washington Post submeteu a verificadores de informações de carne e osso uma série de artigos científicos publicados pelo reputado site CNET com ajuda de IA. Havia erros graves. Uma investigação da revista Time revelou burrice humana na inteligência artificial: a OpenAI pagou afrontosos 2 dólares por hora a trabalhadores quenianos para alimentar rapidamente o programa e aparar as arestas.
A surpresa, como tudo o que é novo, provoca incômodo compreensível, especialmente entre artistas. O cantor e compositor australiano Nick Cave escreveu uma carta em forma de panfleto para o dono de um site que inventou de pedir ao ChatGPT refrãos no estilo de Cave. A peroração de Cave talvez seja o mais claro manifesto, um tanto mercurial, a cutucar a onda artificial (ressalve-se que não poderia ser escrito por um autômato, dada a ironia). Eis o que ele rabiscou: “Entendo que o ChatGPT esteja em seus primórdios, mas talvez esse seja o horror emergente da inteligência artificial: que permaneça para sempre nos primórdios, uma vez que sempre terá avanços a fazer, e a direção é sempre para a frente e sempre mais rápido. Ela jamais pode retroceder ou desacelerar nesse movimento rumo a um futuro utópico, talvez, ou à nossa destruição total. Quem poderá saber qual será a direção? A julgar por essa canção ‘em estilo Nick Cave’, a coisa não parece muito boa”. Ele prossegue: “A música é um lixo. Nesse caso, o ChatGPT é uma réplica travestida. O ChatGPT pode até ser capaz de escrever um discurso, um ensaio, um sermão ou um obituário, mas não consegue criar uma canção genuína. Com o tempo, talvez possa criar uma música que, na superfície, seja indistinguível do original. Mas será sempre uma réplica, uma espécie de burlesco. As canções surgem do sofrimento, e com isso quero dizer que são baseadas no conflito humano, complexo e interno, da criação. E, bem, até onde eu sei, algoritmos não sentem. Dados não sofrem”.
VITÓRIA DA CIVILIZAÇÃO – O enxadrista Garry Kasparov enfrenta o computador Deep Blue em 1996: uma única derrota –Bernie Nunez/Allsport/Getty Images
VEJA pediu ao ChatGPT versos como os de Caetano Veloso. O resultado é risível: “Vem meu amor, vem meu bem”, repetido quarenta vezes. À guisa de Chico Buarque, o artefato também passa vergonha: “Vou me lembrar de você quando o sol se pôr / Vou me lembrar de você quando a noite chegar / Vou me lembrar de você quando o dia amanhecer / Vou me lembrar de você e meu coração se alegrar”. E que tal rabiscar algo como João Cabral de Melo Neto, robô? É duro: “O homem é a medida de todas as coisas / do infinito ao infinitesimal / do eterno ao efêmero / do sublime ao ridículo”.
Como o homem é realmente a medida de todas as coisas — e ponto aqui para o ChatGPT —, é o caso de entender onde a IA funciona muito bem e onde ainda exige avanços. Não se deve tratar a inovação com olhar ludita, como se fosse o pior dos mundos, porque não é. Há imensa utilidade, que deve ser celebrada como um prêmio para a sabedoria humana. Na medicina, a avenida parece aberta. Há sistemas capazes de identificar com precisão alguns tipos de câncer. Ao analisar milhões de dados com velocidade, conseguem encontrar padrões e ajudar no diagnóstico. “E mesmo um bot razoavelmente simples como o ChatGPT pode trazer detalhes do histórico dos pacientes, ajudando a enriquecer a troca de informações sobre nomes de remédios, dosagens e terapias”, diz Carlos Lopes, diretor-executivo da MEDX Tecnologia, especializada em cruzar saúde com matemática. A IA sugere compras quando navegamos pelas prateleiras virtuais de uma loja on-line e indica perfis para seguirmos nas redes sociais, muitas vezes alinhados com gostos pessoais. Robôs inteligentes também são usados em linhas de montagem para cortar custos e aumentar a eficiência (leia no quadro abaixo). Contudo, e a conjunção adversativa se impõe, os nós morais se impõem, e não há como apartá-los. “O robô não tem o discernimento da verdade”, diz Paulo Faltay, pesquisador do MediaLab da Universidade Federal do Rio de Janeiro (UFRJ). “Ele não questiona nem duvida, todo dado para ele é um número e, portanto, um fato”.
Tudo somado, o bode está na sala e não há como simplesmente tirá-lo. Durante mais de setenta anos, a humanidade se debruçou no chamado teste de Turing, desenvolvido pelo matemático Alan Turing, em 1950. A ideia: medir a capacidade de uma máquina de exibir comportamento inteligente equivalente ao de um ser humano, ou indistinguível de nós, mortais. A grande maioria dos instrumentos de IA de hoje passaria facilmente pelo exame da verdade, com sobras. É página virada. O melhor a fazer, agora, é iluminar os aspectos éticos que pavimentam o futuro — e eles são complexos. Não se trata apenas de saber se os professores devem ou não aceitar trabalhos escolares feitos roboticamente ou de acompanhar um inédito julgamento por excesso de velocidade nos Estados Unidos — nele, um réu terá o direito de ter fones de ouvidos durante uma audiência, aconselhado por uma IA da empresa DoNotPay, que analisará as acusações sugerindo defesa. O futuro, percebe-se, é muito mais amplo, com nuances e sutilezas.
COMO NÓS MESMOS - O Hal 9000 de 2001 — Uma Odisseia no Espaço, de 1968: a beleza da máquina que pensa e sente –MGM/.
Convém um olhar de admiração desconfiada, muito mais do que desapreço confiante. Um modo é seguir as novas e desenvolvidas formas de IA como fez uma geração inteira que adorou o HAL 9000 de 2001 — Uma Odisseia no Espaço, de 1968, dirigido pelo cineasta Arthur Kubrick a partir do romance de Arthur C. Clarke. HAL 9000 era o robô que comandava as viagens da nave Discovery, de luz vermelha como um coração — uma inteligência algorítmica avançada, expressiva e emocionada, tímida, que roubou a imaginação coletiva. Houve de lá para cá extraordinários saltos e, como intuiu Clarke, “o futuro já não é como costumava ser”.
Há muito barulho em torno do ChatGPT, mas ele está longe, realmente, de ser um dos programas mais sofisticados a lidar com IA. Existem estudos que usam o aprendizado de máquina (ou machine learning) para desenvolver métodos capazes de ajudar a combater as mudanças climáticas valendo-se de modelos preditivos. Plataformas de agricultura oferecem análises sobre como produzir alimentos de forma mais eficiente e com menor impacto ambiental a partir da análise do histórico de cada região. Os usos são variados: de segurança para impedir fraudes bancárias a dispositivos de acessibilidade que usam IA para ajudar pessoas com deficiência.
Os problemas começam quando a IA é usada em áreas que exigem emoções. Ou seja, aquilo que nos torna humanos. “É um tipo de inteligência diferente, que não entende a relação entre as palavras, numa barreira, até então, intransponível”, diz Cezar Taurion, empreendedor que estuda tecnologia de informação. Um dia não será mais intransponível. E permanece vivo um antigo receio: o de que a criatura vá se rebelar contra seu criador. No romance Frankenstein, de 1818, a britânica Mary Shelley aborda a questão: após ter sucesso na construção de uma criatura artificial, Victor Frankenstein se arrepende, mas é tarde demais. A coletânea Eu, Robô, de Isaac Asimov, de 1950, discute as interações entre humanos e androides e a moral envolvida na construção de engrenagens capazes de pensar. Mesmo agora, décadas depois, o tema interessa. O blockbuster M3gan conta a história de uma boneca robótica dotada de inteligência projetada para ser babá de crianças e que se torna má ao ganhar consciência. O susto com M3gan só cabe ter diante das telas — aqui, do lado de fora, a IA deve ser tratada como companheira. Precisamos ensiná-la a pensar, e não o contrário. E não custa lembrar que numa disputa de seis partidas contra o supercomputador Deep Blue, em 1996, o enxadrista Garry Kasparov ganhou três, empatou duas e perdeu uma única. Em 1997 o desafio foi bisado, e o trambolho também só venceu uma vez. Viva a civilização que criou o computador. Nós.
Mas, enfim, cabe uma indagação: devemos temer a IA? Não necessariamente. A IA pode ser usada para ajudar a humanidade de muitas maneiras, como melhorar a saúde, a educação e a segurança. No entanto, é importante ter cuidado ao usar a tecnologia para evitar que ela seja usada de modo abusivo ou para fins maliciosos.
Em tempo: esse parágrafo anterior, de 55 palavras, nítido e correto, ainda que previsível, também foi escrito pelo ChatGPT.
Publicado em VEJA de 1º de fevereiro de 2023, edição nº 2826