Assinar

Banimento do ChatGPT e receios: por que a IA está sendo questionada?

Buscar

Banimento do ChatGPT e receios: por que a IA está sendo questionada?

Buscar
Publicidade
Marketing

Banimento do ChatGPT e receios: por que a IA está sendo questionada?

Decisão da Itália de proibir uso da ferramenta e carta de estudiosos expõem preocupações em relação à regulação e utilização de dados


4 de abril de 2023 - 7h54

Principal assunto de tecnologia e inovação em 2023, o avanço da inteligência artificial – sobretudo pela utilização do ChatGPT para a elaboração de textos – entrou em um patamar mais complexo de discussão nas últimas semanas.

Na semana passada, em carta aberta, um grupo formado por mais de mil pessoas, entre milionários, executivos e estudiosos, pediu uma pausa de seis meses no desenvolvimento de tecnologias de inteligência artificial alegando que seu avanço desenfreado representaria grandes riscos à humanidade.

No último dia 31, a Itália se tornou o primeiro país do Ocidente a banir a utilização do ChatGPT em seu território por conta de suspeita de divulgação de informações sensíveis aos usuários. A proibição se manterá até que a ferramenta se adeque às vigências da lei de proteção de dados da Europa.

Imagem do Papa Francisco com casaco branco rodou a internet; foto foi criada pelo Midjourney, ferramenta que converte a descrição, por texto, em imagens (Crédito: Reprodução/Twitter)

As conversas sobre o poder de transformação trazido pelas novas ferramentas de inteligência artificial já estavam aquecidas e se popularizam ainda mais depois que uma foto do Papa Francisco usando um estiloso casaco rodou o mundo. Depois de muita gente ter acreditado – e compartilhado a imagem – do novo visual do Pontífice, foi revelado que aquela imagem havia sido construída pelo Midjourney, ferramenta de IA que cria imagens realistas.

As discussões sobre o controle acerca do que seria real ou não em um mundo permeado por ferramentas de inteligência artificial cresceram. A proibição feita pela Itália tende a ser seguida por outros países? A sociedade – e as próprias empresas que pareciam interessadas em desenvolver a inteligência artificial – estão prestes a recuar?

Avanço de IA e regulação

Na opinião de profissionais especialistas em dados e em criatividade, antes de pensar em um possível temor em relação ao poder que estaria sendo depositado em máquinas inteligentes, é preciso pensar essas regulações e movimentos de recuo do ponto de vista de regulação.

No caso da Itália, sobretudo, a decisão de banir o ChatGPT se deu, como alega o órgão local, pela falta de transparência no uso de dados, com a solicitação de mais clareza nesse aspecto. Sob essa perspectiva, faz sentido que a OpenAI, desenvolvedora do ChatGPT, preste esclarecimentos sobre os dados que utiliza, na visão de Eduardo Sumi, head de creative data da Artplan.

Segundo ele, a primeira pergunta que a OpenAI precisa responder é: quais as medidas para proteger dados pessoais e a privacidade? “É uma conversa saudável, importante e necessária, já que os órgãos públicos devem cumprir seu dever de zelarem pelos cidadãos. Assim como aconteceu na Itália, há potencial para que esse debate seja escalado”, acredita o head da Artplan.

A opinião de que a medida tende a se escalar por outros países é compartilhada por João Passarinho Netto, sócio e vice-presidente de estratégia criativa da Jotacom. O profissional pontua que a questão mais preocupante está no controle correto da inteligência artificial, combinada à existência de exoesqueletos ou robôs como os da Boston Dynamics e da própria Tesla, que são super avançados em movimentos e força física.

“Se imputarmos uma inteligência artificial para controlá-los, poderemos ter de fato um ser humanoide que pensa, mente e faz coisas que podem fugir de nosso controle”, alerta.

Inteligência Artificial, parâmetros e interesses

Já em relação à manifestação aberta de empresários e estudiosos, os especialistas enxergam preocupações, de fato com a utilização de novas ferramentas inteligentes, mas também consideram nessa conta os interesses sócios-econômicos envolvidos em uma transformação tecnológica tão potente, além, logicamente, das implicações em termos de privacidade e uso de dados.

Marcio Oliveira, SVP e managing director da R/GA Brasil, aposta que a regulação é a principal causa para a manifestação dos empresários e estudiosos, além do fato de não termos parâmetros para a utilização desse tipo de tecnologia, o que pode causar prejuízos em todos os sentidos para a sociedade.

Oliveira, contudo, levanta outros pontos. “Não acredito em Papai Noel e acho que o Elon Musk, por exemplo, quer é ganhar tempo para entrar na corrida e tentar liderar as iniciativas e explorações que a IA pode trazer. Mas pessoas como o Yuval Harari (escritor) acredito, sim, que estão olhando para os seres humanos com cuidado e apreensão”, analisa.

Google já iniciou os testes abertos do Bard, sua ferramenta de inteligência artificial de textos (Crédito: Shutterstock)

Discussões para a evolução

Apesar desses questionamentos em torno da paralisação dos avanços em inteligência artificial, os profissionais não acreditam que haverá uma recusa na adesão à tecnologia.

O managing director da R/GA pontua que as pessoas começarão a olhar com mais atenção para a forma como a utilizam, bem como acontece com a Lei Geral de Proteção de Dados.

Discutir as implicações e limites das ferramentas é uma conversa que é e continuará sendo saudável na visão de Sumi, da Artplan. “Antes de tudo, estamos levantando uma discussão ética-moral necessária. Assim como passamos por diversas ondas do passado: industrialismo, fordismo, mídias eletrônicas, internet, search, social, etc”, exemplifica.

Netto, da Jotacom, também não acredita em uma recusa na utilização dessa tecnologia, mas alerta que o receio poder, sim, escalar com base em uma preocupação legítima do controle e, principalmente, da ética imputada nos algoritmos em desenvolvimento.

O profissional, inclusive, dá exemplos de fatos que embasam esses questionamentos. Há alguns dias, a OpenAI revelou que o ChatGPT mentiu para complementar uma tarefa. Outro exemplo que assusta, segundo o sócio da Jotacom, é o do Atlas, da Boston Dynamics, que na mais recente atualização, se tornou capaz de pegar e largar coisas, participando de uma atividade mais ativamente e de forma mais próxima do ser humano.

“São fatos que geram uma desconfiança ou fragilidade no controle dos limites do algoritmo, que poderia trazer a ficção de Hollywood para uma realidade que talvez ainda não estamos preparados para suportar”, conclui.

Publicidade

Compartilhe

Veja também