Banimento do ChatGPT e receios: por que a IA está sendo questionada?

Buscar

Banimento do ChatGPT e receios: por que a IA está sendo questionada?

Buscar
Publicidade

Marketing

Banimento do ChatGPT e receios: por que a IA está sendo questionada?

Decisão da Itália de proibir uso da ferramenta e carta de estudiosos expõem preocupações em relação à regulação e utilização de dados


4 de abril de 2023 - 7h54

Principal assunto de tecnologia e inovação em 2023, o avanço da inteligência artificial – sobretudo pela utilização do ChatGPT para a elaboração de textos – entrou em um patamar mais complexo de discussão nas últimas semanas.

Na semana passada, em carta aberta, um grupo formado por mais de mil pessoas, entre milionários, executivos e estudiosos, pediu uma pausa de seis meses no desenvolvimento de tecnologias de inteligência artificial alegando que seu avanço desenfreado representaria grandes riscos à humanidade.

No último dia 31, a Itália se tornou o primeiro país do Ocidente a banir a utilização do ChatGPT em seu território por conta de suspeita de divulgação de informações sensíveis aos usuários. A proibição se manterá até que a ferramenta se adeque às vigências da lei de proteção de dados da Europa.

Imagem do Papa Francisco com casaco branco rodou a internet; foto foi criada pelo Midjourney, ferramenta que converte a descrição, por texto, em imagens (Crédito: Reprodução/Twitter)

As conversas sobre o poder de transformação trazido pelas novas ferramentas de inteligência artificial já estavam aquecidas e se popularizam ainda mais depois que uma foto do Papa Francisco usando um estiloso casaco rodou o mundo. Depois de muita gente ter acreditado – e compartilhado a imagem – do novo visual do Pontífice, foi revelado que aquela imagem havia sido construída pelo Midjourney, ferramenta de IA que cria imagens realistas.

As discussões sobre o controle acerca do que seria real ou não em um mundo permeado por ferramentas de inteligência artificial cresceram. A proibição feita pela Itália tende a ser seguida por outros países? A sociedade – e as próprias empresas que pareciam interessadas em desenvolver a inteligência artificial – estão prestes a recuar?

Avanço de IA e regulação

Na opinião de profissionais especialistas em dados e em criatividade, antes de pensar em um possível temor em relação ao poder que estaria sendo depositado em máquinas inteligentes, é preciso pensar essas regulações e movimentos de recuo do ponto de vista de regulação.

No caso da Itália, sobretudo, a decisão de banir o ChatGPT se deu, como alega o órgão local, pela falta de transparência no uso de dados, com a solicitação de mais clareza nesse aspecto. Sob essa perspectiva, faz sentido que a OpenAI, desenvolvedora do ChatGPT, preste esclarecimentos sobre os dados que utiliza, na visão de Eduardo Sumi, head de creative data da Artplan.

Segundo ele, a primeira pergunta que a OpenAI precisa responder é: quais as medidas para proteger dados pessoais e a privacidade? “É uma conversa saudável, importante e necessária, já que os órgãos públicos devem cumprir seu dever de zelarem pelos cidadãos. Assim como aconteceu na Itália, há potencial para que esse debate seja escalado”, acredita o head da Artplan.

A opinião de que a medida tende a se escalar por outros países é compartilhada por João Passarinho Netto, sócio e vice-presidente de estratégia criativa da Jotacom. O profissional pontua que a questão mais preocupante está no controle correto da inteligência artificial, combinada à existência de exoesqueletos ou robôs como os da Boston Dynamics e da própria Tesla, que são super avançados em movimentos e força física.

“Se imputarmos uma inteligência artificial para controlá-los, poderemos ter de fato um ser humanoide que pensa, mente e faz coisas que podem fugir de nosso controle”, alerta.

Inteligência Artificial, parâmetros e interesses

Já em relação à manifestação aberta de empresários e estudiosos, os especialistas enxergam preocupações, de fato com a utilização de novas ferramentas inteligentes, mas também consideram nessa conta os interesses sócios-econômicos envolvidos em uma transformação tecnológica tão potente, além, logicamente, das implicações em termos de privacidade e uso de dados.

Marcio Oliveira, SVP e managing director da R/GA Brasil, aposta que a regulação é a principal causa para a manifestação dos empresários e estudiosos, além do fato de não termos parâmetros para a utilização desse tipo de tecnologia, o que pode causar prejuízos em todos os sentidos para a sociedade.

Oliveira, contudo, levanta outros pontos. “Não acredito em Papai Noel e acho que o Elon Musk, por exemplo, quer é ganhar tempo para entrar na corrida e tentar liderar as iniciativas e explorações que a IA pode trazer. Mas pessoas como o Yuval Harari (escritor) acredito, sim, que estão olhando para os seres humanos com cuidado e apreensão”, analisa.

Google já iniciou os testes abertos do Bard, sua ferramenta de inteligência artificial de textos (Crédito: Shutterstock)

Discussões para a evolução

Apesar desses questionamentos em torno da paralisação dos avanços em inteligência artificial, os profissionais não acreditam que haverá uma recusa na adesão à tecnologia.

O managing director da R/GA pontua que as pessoas começarão a olhar com mais atenção para a forma como a utilizam, bem como acontece com a Lei Geral de Proteção de Dados.

Discutir as implicações e limites das ferramentas é uma conversa que é e continuará sendo saudável na visão de Sumi, da Artplan. “Antes de tudo, estamos levantando uma discussão ética-moral necessária. Assim como passamos por diversas ondas do passado: industrialismo, fordismo, mídias eletrônicas, internet, search, social, etc”, exemplifica.

Netto, da Jotacom, também não acredita em uma recusa na utilização dessa tecnologia, mas alerta que o receio poder, sim, escalar com base em uma preocupação legítima do controle e, principalmente, da ética imputada nos algoritmos em desenvolvimento.

O profissional, inclusive, dá exemplos de fatos que embasam esses questionamentos. Há alguns dias, a OpenAI revelou que o ChatGPT mentiu para complementar uma tarefa. Outro exemplo que assusta, segundo o sócio da Jotacom, é o do Atlas, da Boston Dynamics, que na mais recente atualização, se tornou capaz de pegar e largar coisas, participando de uma atividade mais ativamente e de forma mais próxima do ser humano.

“São fatos que geram uma desconfiança ou fragilidade no controle dos limites do algoritmo, que poderia trazer a ficção de Hollywood para uma realidade que talvez ainda não estamos preparados para suportar”, conclui.

Publicidade

Compartilhe

Veja também

  • Dove aposta em especialista em IA para incentivar beleza sem padrões

    Dove aposta em especialista em IA para incentivar beleza sem padrões

    Como embaixadora de Dove pela Real Beleza, Heloisy Pereira Rodrigues, formada em IA, trabalhará junto a marca em iniciativas da IA a favor da beleza sem padrões

  • Nivea usa gamificação para falar de cuidados com a pele

    Nivea usa gamificação para falar de cuidados com a pele

    Iniciativa acontecerá presencialmente em São Paulo, Campinas e Curitiba para democratizar conhecimento sobre a pele