Discussões sobre o uso da IA estão presentes, não só do ponto de vista da substituição dos humanos em tarefas mais complexas, mas também do aprofundamento da precarização, da segurança dos dados e dos rumos na aprendizagem

“Estamos trabalhando duro para descobrir como fazer com que esses modelos não apenas falem, mas realmente raciocinem, planejem, tenham memória”, disse Joelle Pineau, vice-presidente de pesquisa em Inteligência Artificial da Meta, em um evento de tecnologia realizado em Londres no início de abril. 

Executivos da OpenAI e da Meta apontaram que as empresas seguem na direção de aprofundar as novas versões dos modelos de linguagem que alimentam o que tem fascinado e assustado os humanos mundo afora nos últimos anos, a IA generativa. A categoria de inteligência artificial, que pode criar novos textos, imagens, vídeos, áudios e códigos, se baseia no conceito de aprendizado de máquina (“machine learning”, em inglês).

“Acho que estamos apenas começando a arranhar a superfície da capacidade que esses modelos têm de raciocinar”, opinou o diretor de operações da OpenAI, Brad Lightcap, em entrevista ao Financial Times. 

As demandas atendidas de forma rápida e, na maior parte do tempo, certeira, ocorrem a partir de conjuntos de redes neurais artificiais. As expectativas de evolução na proximidade entre computadores e pessoas são antigas. O conceito de Inteligência Artificial, por exemplo, foi citado pela primeira vez ainda na década de 50 pelo matemático inglês Alan Turing em seu artigo “Computing Machinery and Intelligence” (Máquinas Computacionais e Inteligência), no qual ele propôs o famoso “Teste de Turing”, em que pessoas interagiam com pessoas e com máquinas e precisavam descobrir com quem era a interação. Em 2014, em um dos testes, dos 30 participantes, 10 acreditaram que conversavam com um garoto de 13 anos ucraniano ao invés de estarem em diálogo com um chatbot desenvolvido na Rússia, o que foi considerado um marco. 

Mesmo com o rápido desenvolvimento das tecnologias de IA, erros como “preconceitos sociais, alucinações e alertas adversários” permanecem mesmo nas versões mais avançadas, de acordo com a OpenAI, responsável pelo ChatGPT. O tema da transparência no treinamento das plataformas começa a ganhar repercussão no debate público. Segundo informações do site da empresa, “o GPT 4 tem 82% menos probabilidade de responder a solicitações de conteúdo proibido e 40% mais chances de produzir respostas factuais do que o GPT 3.5 em avaliações internas”.

Em abril do ano passado, foi publicada uma carta aberta com mais de mil signatários, entre eles: Steve Wozniak, um dos fundadores da Apple; Emad Mostaque, da Stability AI; Yoshua Bengio, conhecido como padrinho das IAs; Stuart Russell, que esteve na vanguarda desse campo de pesquisa; e o polêmico bilionário dono do X, antigo Twitter, Elon Musk. O pedido foi para que fossem interrompidos por seis meses os trabalhos de treinamento de robôs em um sistema apoiado pela Microsoft considerado mais avançado do que o GPT 4. 

A justificativa, aponta o documento, seria o de repensar os riscos potenciais para a humanidade, como a disseminação de propaganda e desinformação, a automação de empregos, a potencial obsolescência humana e o risco de perder o controle da civilização. 

“Existe a mistificação de uma inteligência, que não é inteligência e nem é artificial porque é o homem que produziu, são os dados humanos que alimentam esse mecanismo”, explica Roseli Figaro, professora titular da Universidade de São Paulo que coordena o Centro de Pesquisa em Comunicação e Trabalho da USP.

“Os ideólogos que divulgam os achados do conhecimento humano na atualidade têm uma intencionalidade comercial muito grande, então há uma série de metáforas para nomear determinadas coisas, que são usadas no sentido muito mais da persuasão, de mistificar, do que de esclarecer, por isso que chamo o momento em que vivemos de uma era de obscurantismo”, destaca a pesquisadora.  

Roseli lembra, por exemplo, do conceito de “nuvem”, que é amplamente divulgado de maneira pouco transparente para os consumidores das plataformas. “Não tem nada na nuvem, essa nuvem simplesmente também mistifica onde esses dados são guardados, quem se apropria desses dados, porque se colocar que não é uma nuvem, mas que é um data center que fica no endereço tal, na cidade tal, no país tal, aí as pessoas vão se preocupar mais, né?”

A coordenadora do centro de pesquisa destaca que o principal ativo dessas empresas são os dados coletados dos usuários, como se elas investissem em um terreno que, cada vez mais, está se valorizando. “Qual é o ativo dessas empresas porque elas dizem que não têm lucro, né? A Uber mesmo disse que teve lucro outro dia, recentemente”, questiona Roseli, chamando a atenção para o modelo de negócios dessas empresas. “Alguém vai me dizer que a Uber ganha dinheiro transportando pessoas, que o Ifood ganha dinheiro transportando comida?”, conclui.  

MUNDO DO TRABALHO

Na última quinta-feira (25), o Google divulgou um relatório elaborado pelo pesquisador Andrew McAfee, que fala sobre os potenciais impactos econômicos da IA generativa e a especialização profissional para seu uso no mercado de trabalho. O estudo trouxe a estimativa de que cerca de 80% dos empregos nos Estados Unidos poderiam ter ao menos 10% de suas tarefas realizadas duas vezes mais rápido sem perda de qualidade.

No ano passado, uma pesquisa do banco de investimentos Goldman Sachs calculou que cerca de dois terços dos empregos nos Estados Unidos e na Europa já estão expostos a algum grau de automação e que, em dez anos, a projeção é de que 300 milhões de trabalhadores utilizem IA em tempo integral durante a jornada de trabalho. 

Além de entender como a Inteligência Artificial se localiza dentro do mercado de trabalho já estabelecido, vale destacar que há uma função bastante precarizada para que a engrenagem funcione — a dos anotadores de dados. Roseli Figaro, do Centro de Pesquisa em Comunicação e Trabalho da USP, comenta que os trabalhadores desse segmento são “invisíveis” na cadeia, apesar da extrema importância porque são eles que identificam as situações que os softwares irão apresentar e transformam em sentenças matemáticas passíveis de leitura pelas máquinas. Isso faz com que, segundo a pesquisadora, seja complexa a identificação da empresa em um modelo antigo de reivindicação de direitos trabalhistas. 

No Brasil, o debate relacionado à regulamentação de tecnologias, atualmente, está mais focado na construção de parâmetros para uma melhor atuação das big techs que dominam o setor de redes sociais. Mas o tema da IA é acompanhado também pelo Ministério do Trabalho e Emprego, que travou recentemente uma discussão junto a empresas como Ifood e Uber, que empregam via seus aplicativos mais de 1,5 milhão de brasileiros, segundo o IBGE.

“No Ministério do Trabalho e Emprego, entendemos que este uso da ciência a favor do bem estar da população é crucial e queremos contribuir para que mais profissionais sejam capacitados para utilizar novas ferramentas de forma correta e com isso manter e até ampliar empregos”, afirma Chico Macena, secretário-executivo da pasta. 

Nesta segunda-feira (29), em conversa com jornalistas no evento NETmundial+10, a ministra da Ciência, Tecnologia e Inovação, Luciana Santos, afirmou que planeja entregar um plano de ações relacionadas à IA no mês de junho e que há um PL no Senado apoiado pelo governo para a regulamentação dos mecanismos de inteligência artificial no país. O MCTI aponta que existem estudos sobre o uso de supercomputadores em diferentes setores, como saúde, agricultura, infraestrutura e educação.

SALA DE AULA

“Elas [as tecnologias] não são ferramentas auxiliares. Elas precisam entrar como estruturantes dos processos, no sentido de que elas são fundamento. Então, as tecnologias contemporâneas hoje são mecanismos de escrita do presente e, dessa forma, elas não podem entrar na escola como recursos didáticos pedagógicos. Elas entram com uma perspectiva de fortalecer a criação”, defende Nelson Pretto, professor da Universidade Federal da Bahia e militante por uma relação saudável entre educação e tecnologia. 

Autor de diversos livros sobre o assunto, ele está há 30 anos no tema e coordena o grupo de pesquisa “Educação, Comunicação e Tecnologias”, da UFBA. Para Pretto, é preciso que seja construído um círculo virtuoso de produção de culturas e conhecimentos, o que considera como ponto central da discussão. 

“O que nós precisamos é de leitores, sejam leitores de tela, de papel, o que quer que seja, leitura do corpo, leitura do mundo, leitores atentos, desconfiados que tenham possibilidade de identificar tudo o que tem por trás daquilo que lhe chegou”, aponta o pesquisador. 

Segundo Pretto, a solução “não é, em hipótese alguma, proibir celular, ChatGPT ou qualquer coisa, ao contrário, eles têm que entrar exatamente para que a gente possa dissecar. E aí a gente tem que ter todo um letramento algorítmico, um letramento de dados”, opina.  

No mês passado, o governo de São Paulo, comandado por Tarcísio de Freitas, anunciou o uso de inteligência artificial na produção das aulas digitais do 3º bimestre deste ano, em substituição ao trabalho dos professores curriculistas, que agora passam a apenas revisar o conteúdo elaborado pela IA. Segundo o texto enviado aos professores, divulgado pelo jornal Folha de S. Paulo, a ferramenta de inteligência artificial vai gerar a “primeira versão da aula com base nos temas pré-definidos e referências concedidas pela secretaria”. 

A medida é criticada por Nelson Pretto que destaca a relação do secretário da Educação, Renato Feder, com empresas do setor; no ano passado, o governo de São Paulo fechou três contratos com a Multilaser, tendo Feder como um dos acionistas. De acordo com o professor, há também um problema de ordem conceitual, já que houve, inclusive, a tentativa de substituição completa de livros físicos por livros digitais na rede estadual. “É um verdadeiro absurdo raciocinar em torno dessa lógica de que chega o livro digital, então, joga fora o livro impresso, chega a televisão, então, joga fora o cinema, o rádio. Os meios convivem, e conviverão a vida inteira”, afirma Pretto.