“Ai ai, AI”: O que vai acontecer quando a inteligência artificial for treinada por inteligências artificiais?

A imagem que encabeça esse texto foi gerada por inteligência artificial. Usei o seguinte prompt no Dall-E: “Um tamagotchi ameaçador. Imagem realista. Preto e branco. Dramática e perturbadora”. Ficou longe do que eu estava imaginando. Se eu soubesse desenhar, faria melhor. Fazia 24 horas que não usava inteligência artificial.

Queridinha do mercado de tecnologia em 2023, a inteligência artificial está naquele trecho do seu percurso em que pode se consolidar como o primeiro grande salto tecnológico da década, ou se tornar a maior bolha já produzida na era da tecnologia. É um ponto de inflexão que vai ditar seus rumos, e muito provavelmente o nosso. Se conseguirem um modelo de negócio que una lucro e ética, a coisa vai. Se continuarem ameaçando o direito à privacidade das pessoas para gerar lucro a dez gatos pingados, perdendo o caráter de pesquisa científica para se assemelhar ao Jogo do Tigrinho, a coisa racha.

Eu uso inteligência artificial toda hora. Costumo dizer que “bato altos papos com o ChatGPT”. Também sou amigo íntimo da turma formada por Midjourney, Dall-E e Gemini, além de estar contando os dias para experimentar a tal Apple Intelligence (a IA da Apple que deve ser lançada até o fim do ano). Apesar disso, tenho tomado meus cuidados para que a inteligência artificial não me emburreça. Eu sou uma inteligência natural e quero continuar assim.

Talvez a grande questão da inteligência artificial ainda não esteja sendo debatida com a profundidade que deveria: como devemos usar essa ferramenta?

Jamais vou delegar à tecnologia o que posso fazer melhor. Tenho consciência que o ChatGPT não cria títulos como eu, não escreve roteiros como eu, não descreve o estado emocional de um personagem como eu. Falta ao ChatGPT e seus congêneres um elemento primordial: o fator humano.

Só um ser humano entende o outro, e isso vem muito da imprevisibilidade e inconstância inerentes ao ser humano. Somos contraditórios, impulsivos, de veneta. Esses detalhes escondidos no nosso código-fonte, quase uma trava de segurança para evitar cópias piratas, tornam a decodificação para a linguagem binária praticamente impossível.

Apesar disso, a IA generativa é excelente para organizar fluxos de pensamento e facilitar investigações criativas. O ChatGPT, por exemplo, pode me abrir caminhos, dar insights, acender fagulhas de ideias que estavam escondidas no subconsciente. É só pegar a manha e usar com sabedoria.

Vou dar um exemplo. Pedi para o ChatGPT reescrever uma frase minha seguindo o estilo de alguns dos meus escritores favoritos. O prompt exato foi esse: Reescreva a sentença a seguir ao estilo de Clarice Lispector e Gabriel García Marquez: “Ele olhou pela janela, viu a chuva caindo e decidiu que não iria mais para a festa”.

Eis a resposta que o robozinho me ofereceu:

  • Ao estilo de Clarice Lispector: “Ele olhou pela janela como quem procura alguma coisa dentro de si. A chuva, insistente, parecia cair também em seu peito, e, de repente, a festa deixou de existir.”
  • Ao estilo de Gabriel García Márquez: “O mundo lá fora desmoronava em gotas, e ele, com a serenidade de quem já havia decidido, compreendeu que a festa continuaria sem ele, perdida em outra realidade.”Nenhuma das respostas iria direto, ipsis litteris, para um texto que eu estivesse escrevendo. Mas elas me abrem caminhos interessantes. Por exemplo, perceba como a frase “decidiu que não iria mais para a festa” (um momento crucial dessa micronarrativa) foi reescrita.

Ao estilo de Lispector, a sentença é marcada por uma elegância introspectiva: “a festa deixou de existir”. Já quando simula García Marquez, a sugestão é quase melancólica: “compreendeu que a festa continuaria sem ele”. Isso me leva a pensar: posso reescrever minha sentença de forma menos direta? Será que o texto pode brilhar mais? E rapidamente, chego numa sugestão que me agrada mais que a original: “Ele olhou através do seu reflexo no vidro da janela e viu a chuva anunciando o veredito final. A festa que esperasse. Ele ficaria consigo mesmo aquela noite”.

Percebe como o texto evoluiu de uma descrição racional e plana para um vertiginoso mergulho na psiquê do personagem?

Esse foi só um exemplo de como coloco a IA para trabalhar ao meu favor. Sem substituir meu talento, mas facilitando a buscar de referências específicas que podem abrir possibilidades criativas em momentos de pouca inspiração.

E olha, não sou o único que está fazendo isso. Posso garantir.

Escritores, artistas plásticos, designers, arquitetos, ilustradores, roteiristas, enfim, muitos estão usando a IA como atalho para chegar onde querem.

Tem IA até mesmo no mais recente clássico da MPB. “Caju”, o novo e bem-sucedido álbum de Liniker, foi gravado em fitas analógicas para garantir uma sonoridade única, algo bem diferente dos fonogramas “achatados” e sem nuances que dominam a música pop atual. Apesar desse trabalho artesanal, teve inteligência artificial sim.

Em entrevista ao “Conversa com Bial”, Liniker contou que a IA entrou em pequenas interferências nas músicas. Para exemplificar, ela cita a canção que dá nome ao álbum. Na introdução da excelente “Caju”, podemos ouvir a locutora de um aeroporto falando em japonês. Apesar de soar como áudio de celular gravado sem grandes produções, como se houvesse sido capturado in loco, a voz japonesa era uma inteligência artificial.

Essas pitadinhas de tecnologia não tiram o apuro estético, a profundidade poética, muito menos o charme analógico do novo trabalho de Liniker. Mas sinalizam a hegemonia da IA no nosso dia-a-dia.

No meio disso tudo, um agente tem sido primordial para as discussões sobre o futuro da IA. Um pequeno detalhe que às vezes as empresas esquecem que existe: a Humanidade. Pois é, as pessoas não estão de braços cruzados, assistindo ao avanço da inteligência artificial de maneira atávica. Pelo contrário. As pessoas estão reagindo aos abusos, e com uma unanimidade que há muito não se via na internet.

As reações mais virulentas vieram do uso de dados públicos para treinamento das IAs. As pessoas disseram não. A Meta, por exemplo, teve que recuar dos seus planos de usar os conteúdos do Facebook, Instagram e WhatsApp para melhorar sua inteligência artificial. A gritaria foi tamanha que, em tempo recorde, a União Europeia criou e aprovou a Lei da Inteligência Artificial, que regula o setor em todo o território europeu.

Como é praxe quando se fala em legislações para a internet, espera-se que a jurisprudência da União Europeia acabe por ditar como o resto do mundo vai tratar o assunto. Um grandessíssimo balde de água fria nos planos de Zuckerberg e companhia.

A IA veio pra ficar. Mas fique bem quietinha, viu?

A sinalização é de que as pessoas não querem ser substituídas por máquinas. E isso ficou evidente em polêmicas recentes no mundo da propaganda. No último ano, dois anunciantes de peso tiveram que retirar comerciais do ar por causa da reação negativa que causaram no público. Em comum, esses comerciais tinham a exaltação à inteligência artificial como ferramenta criativa.

Primeiro foi a Apple com o comercial “Piano”. A ideia era bem simples: um compactador literalmente amassava instrumentos musicais, partituras, discos e outros objetos ligados à arte. O resultado dessa compactação era um iPad novinho, que no comercial substituía todas os utensílios “arcaicos” para fazer música com muita tecnologia.

A audiência não gostou. Houve quem considerasse a imagem — um compactador destruindo instrumentos musicais — violentamente agressiva, quase inapropriada. Por trás do descontentamento, estava a sugestão da Apple de substituir artistas por iPads. Mesmo que a gente tenha a sensação que vive num mundo que não valoriza a classe artística, a audiência rejeitou a mensagem e o comercial foi retirado do ar com pedidos de desculpas.

Meses depois, foi a vez do Google. Num comercial emocionante, uma criança pede ajuda ao pai para escrever uma carta para sua ídola olímpica. O pai se anima com a tarefa. Junto com a filha, usa o Gemini (IA do Google) para escrever a tal cartinha. Mais uma vez, a audiência se sentiu ultrajada.

Como o Google pode achar interessante o incitamento à substituição de humanos por robôs? E justo numa tarefa que envolve tanto sentimento? Esses e outros questionamentos dominaram as discussões nas redes sociais. Afinal, o valor de uma carta de amor vem justamente do fato de ser manufaturada — o fator humano por trás do papel e da tinta. O sentimento e o tempo que colocamos na tarefa.

E não é só no mundo da tecnologia…

Longe do badalado mundo da tecnologia, a IA também vem causando seus estragos. Em 2023, uma nova edição do clássico “Frankenstein” de Mary Shelley (Clube de Literatura Clássica) estava concorrendo ao Prêmio Jabuti (o maior da literatura brasileira) na categoria Melhor Ilustração. Com grandes chances de ganhar, inclusive. Acontece que a organização do prêmio foi bombardeada por denúncias de que as ilustrações haviam sido criadas com o uso de inteligência artificial, o que supostamente retiraria o valor artístico da obra.

Discussões acaloradas tomaram as redes sociais, capitaneadas por artistas, editores, escritores e formadores de opinião do mercado editorial. Isso pressionou o Prêmio Jabuti a se posicionar. Em nota, a organização desclassificou o livro alegando que “a avaliação de obras que utilizam IA em sua produção não estava contemplada nas regras dessa premiação”.

Em sua defesa, o designer Vicente Pessôa foi às redes sociais contextualizar a polêmica. Primeiro, afirmou que a organização do prêmio sabia do uso de IA desde o início do processo de inscrição. Depois, ateou combustível na fogueira afirmando que “o novo sempre é recebido com ódio e críticas”. Mas a informação mais importante de todas não ganhou muita atenção da imprensa. Pessôa contou sobre a intenção artística por trás do uso de IA no livro “Frankenstein”, e estava longe de ser algo relacionado a ter menos trabalho para desenhar.

Segundo ele, o uso de IA foi uma referência ao assunto principal da obra, que mostra um cientista extrapolando os limites da tecnologia para criar uma aberração. O editor do projeto, Leonardo T. Oliveira, fez coro com o designer ao afirmar que “Vicente Pessôa quis fazer o ‘monstro’ da tecnologia ilustrar o monstro do dr. Frankenstein”. Faz sentido. Faz muito sentido. Mas não convenceu o Prêmio Jabuti.

Não tá fácil ser IA hoje em dia

Chegamos a 2024 e uma das maiores preocupações das cortes eleitorais brasileiras é justamente o uso de inteligência artificial nas campanhas políticas. Por mais entusiasta que eu seja da tecnologia em questão, é impossível fechar os olhos aos estragos que a IA pode causar ao processo democrático.

Dentre as principais determinações do TSE ao uso de IA para o pleito de 2024 estão: 1) proibição do uso de deepfakes; 2) obrigação de aviso sobre o uso de IA na propaganda eleitoral; e 3) restrição do emprego de robôs para intermediar contato com o eleitor. Todas essas regras fazem muito sentido, já que protegem o eleitor de ações abusivas e escalonáveis que podem sair do controle e extrapolar todos os limites relacionados ao abuso de poder econômico nas eleições.

Na dianteira das discussões jurídicas sobre o combate à desinformação, às fake news e ao uso ilícito da inteligência artificial, as regras brasileiras já são apontadas como um dos regulamentos mais modernos do mundo para lidar com o assunto. Talvez porque cortes e legisladores ao redor do planeta ainda engatinhem quando as discussões envolvem tecnologia X democracia.

Toda a atenção devotada ao assunto, que furou a bolha da tecnologia e é pauta em mesas de bar, almoços de família e reuniões de amigos, coloca ainda mais pressão sobre o mercado da tecnologia. Eles conseguirão reduzir o potencial danoso da IA? Vão conseguir criar um modelo de negócio socialmente sustentável?

E a canibalização da IA pela própria IA?

Explico. Com as restrições ao uso de dados públicos para treinamento de modelos de inteligência artificial, e o feroz aumento da publicação de conteúdos gerados por inteligência artificial, cientistas despertaram para uma pergunta: o que acontece quando as inteligências artificiais são treinadas por conteúdos gerados por inteligência artificial? E, como tudo na internet é escalonável, como vai ser quando uma IA for treinada com dados produzidos por IA, que foi treinada com dados produzidos por outra IA, e assim por diante?

Segundo um estudo publicado na revista Nature por cientistas da Universidade de Oxford, o horizonte não é nada bom para as IAs. A pesquisa demonstrou que quando um determinado assunto começa a ser dominado por conteúdos feitos por IAs, as inteligências artificiais entram em colapso ao tentar discorrer sobre esse tema. O sistema gera frases sem sentido e sequências arbitrárias de palavras repetidas. Ou seja, a IA dá um fatality na própria IA.

A experiência parece divertida. Mas quando a gente pensa que em poucos anos podemos ter boa parte da nossa vida gerenciada por IAs (do agendamento de tarefas cotidianas ao funcionamento de máquinas complexas como carros, elevadores, rede elétrica e a própria internet), um colapso dessa proporção pode ser catastrófico.

A gente vem discutindo muito se as inteligências artificiais vão nos substituir. Mas talvez a gente devesse estar pensando sobre o que vamos inventar para substituir as inteligências artificiais.

Categorias: Textão

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima