Assinar

A Ética vai conseguir acompanhar a Velocidade da Luz do 5G?

Buscar
Meio e Mensagem – Marketing, Mídia e Comunicação

A Ética vai conseguir acompanhar a Velocidade da Luz do 5G?

Buscar
Omarson etica 1
Publicidade

How To

A Ética vai conseguir acompanhar a Velocidade da Luz do 5G?

Como bem pontuou Jeff Catlin, CEO da Lexalytics, “a ética é algo que os humanos podem sentir mais do que intelectualizar. Não podemos treinar este sentimento e apesar de podermos dar a Inteligência Artificial exemplos de comportamento ético, é inevitável que irá esquecer alguns".

e Omarson Costa
25 de abril de 2018 - 7h37

Por Omarson Costa (*)

A partir de 2019, no máximo em 2020, a rede 5G deverá entrar em operação e sua Internet nunca mais será a mesma. A União Internacional de Telecomunicações (ITU), agência da ONU especializada em tecnologias de informação e comunicação, estabeleceu para esta nova geração padrões impressionantes de velocidade, com uma taxa de download que poderá chegar a entre 10Gbps e 20Gbps – 100 vezes mais rápida do que a atual 4G. Para inaugurar a nova geração, o 5G deverá, no mínimo, suportar 100 bilhões de conexões, 1ms de latência e taxa de transferência de 10 Gbps.

Os cientistas estimam que a velocidade média das reações do cérebro humano são de aproximadamente ¼ de segundo (250 milissegundos). Alguns humanos possuem reações mais rápidas, como pilotos de caça ou F1 (100-120 milissegundos). Tudo que interagir com o ser humano a uma velocidade de até 2 segundos será interpretado como algo rápido pela mente.

 

1G 2G 3G 4G 5G
1980 1990 2003 2009 2020
Voz Voz / SMS Voz / Dados Dados Dados
2.4 kb/s* 64 kb/s* 2 Mb/s* 100 Mb/s* 10Gb /s ?*

*Velocidade aproximada

 

O leitor sabe o que irá significar, na prática, toda esta ultra velocidade? Que ingressaremos definitivamente na era das coisas conectadas.

A nova autoestrada permitirá o rápido desenvolvimento da Internet das Coisas (IoT) e o Gartner estima que 20,8 bilhões de dispositivos estarão conectados na rede em 2 anos. A GSMA, entidade que representa as operadoras mobile de todo mundo, prevê que em 2026 o mercado de IoT será de US$ 1,8 trilhão.

O mergulho na era da velocidade 5G irá nos remeter a um dilema para o qual ainda não temos (e talvez não teremos tão cedo) uma resposta: como pautaremos nosso comportamento e o das máquinas seguindo padrões éticos e morais estabelecidos há mais de 2 mil anos pelos filósofos da Grécia Antiga?

No dicionário Michaelis a palavra ética é definida como “o ramo da filosofia que tem por objetivo refletir sobre a essência dos princípios, valores e problemas fundamentais da moral, tais como a finalidade e o sentido da vida humana, a natureza do bem e do mal, os fundamentos da obrigação e do dever, tendo como base as normas consideradas universalmente válidas e que norteiam o comportamento humano.

Mas quais serão os princípios e valores da humanidade em um mundo interconectado com máquinas inteligentes programadas por algoritmos que orientam suas “atitudes”? Como os robôs irão distinguir o bem do mal? Que leis irão obedecer?

O mundo dos negócios é legislado (em sua maioria), basicamente, por dois sistemas jurídicos: o anglo-saxão e o romano-germânico. No anglo-saxão os julgamentos são realizados com base em jurisprudência, em casos judiciais anteriores, o que dá maior poder aos juízes para avaliar cada processo. Este sistema é vigente em países que seguem a lei do direito comum do Reino Unido e foram herdados por colônias do Império Britânico, como Estados Unidos, Canadá, Irlanda e Austrália. Já o romano-germânico foi pensado para cobrir qualquer eventualidade, isto é, os juízes têm menos flexibilidade para interpretar a aplicação das leis.

A questão agora, na civilização 5G (6G, 7G, 8G…) será como identificar e punir os criminosos. Como assim? Bem, pare um instante para pensar em uma realidade não muito distante.

Você aceitaria ser julgado por um robô? Embarcaria em um carro sem motorista? Num avião sem piloto? Respeitaria as ordens de um policial androide? O que acharia de um policial utilizar óculos com reconhecimento fácil para identificar bandidos ou controlar as fronteiras? Passaria por uma cirurgia realizada totalmente por uma máquina sem a intervenção de um médico? E a derradeira, mas não conclusiva, questão: acredita que algoritmos poderiam ser programados para tomar decisões de cunho ético com base na legislação vigente?

 

Fonte da imagem: Giuseppe Cacace/AFP/Getty Images

Não, estas não são mais perguntas absurdas.

O rápido avanço da Inteligência Artificial acirrou os debates acerca dos riscos que viveremos e da necessidade de estabelecer códigos de conduta na medida em que sistemas forem desenvolvidos para assumir funções e responsabilidades até aqui reservadas aos humanos, que (ainda?) são os únicos dotados de sentimentos e, portanto, em condições de discernir o certo do errado.

Na era da computação em nuvem e da Internet das Coisas se torna cada vez mais urgente avançar na elaboração de leis e na definição de padrões éticos que irão reger a interação e a integração entre os humanos e suas máquinas inteligentes.

Estamos à beira do lançamento do 5G e a tendência para os próximos anos será a eclosão de dispositivos conectados que irão transformar profundamente – já estão transformando – a forma como vivemos. A nova rede será muito mais rápida e irá proliferar inovações que demandarão tráfego de dados em alta velocidade, seja seu carro, seus eletrodomésticos, sua casa ou seu Apple Watch.

E isso muda tudo.

A partir do momento em que a Internet permitir navegar em velocidades inimagináveis e a Inteligência Artificial ganhar mais e mais autonomia para assumir demandas até hoje atribuídas à raça humana, passaremos a viver em uma sociedade para qual nossos arcabouços legais não têm precedentes e, portanto, ainda não estabeleceram parâmetros para dar vereditos.

Os programadores serão os responsáveis por imputar “padrões de comportamento” aos robôs, isto é, definirão até onde podem tomar suas próprias resoluções e quando deverão atribuí-las ao cérebro humano.

Qual o código de ética de um programador? Não há. Se houvesse, deveria ser universal, considerando que o software que você usa na “nuvem” pode estar em qualquer ponto do planeta? Algumas profissões, como os contadores e do setor imobiliário, já possuem uma iniciativa de código de ética global.

Como evitar mais casos como o do Goldman Sachs contra Sergey Aleynikov?

Imagine se o seu chefe lhe pedir para arredondar as contas dos clientes em 1 centavo. Parece nada. Mas e se a empresa possuir 70 milhões de clientes? 700 mil a mais em um mês. 8,4 milhões a mais em um ano. E se fosse um ‘erro de sistema’ de um fornecedor de sistema global que afetaria centenas ou milhares de empresas?

Além da obviedade do crime, temos um dilema ético.

Impedir o avanço da Inteligência Artificial será inócuo e, com os devidos cuidados, a sociedade poderá melhorar (e muito) em diversos aspectos. Um estudo da Stanford Law School indica que em mais de 90% dos acidentes fatais o erro humano é considerado, no mínimo, parcialmente responsável.

Assim sendo, em um cenário otimista, mas não irreal, podemos imaginar que no futuro as mortes no trânsito poderão ser reduzidas a quase zero (o que será das companhias de seguro?), os custos com saúde pública serão muito menores e já não acharemos bizarro viajar num carro guiado por um taxista-robô.

 

Fonte da Imagem: Alliance Films

Mas supor que entregaremos o mundo às máquinas e passaremos a ser meros espectadores de seus julgamentos pressuporia a existência de leis que possam incriminar aqueles que são seus “pais” e que, portanto, responderiam pela paternidade de um menor não responsável por seus atos.

Não custa lembrar que um sistema de Inteligência Artificial é alimentado por dados do programador ou do usuário. O programador pode definir os limites, mas se o sistema consegue evoluir sozinho são boas as chances, ao menos por enquanto, do tiro sair pela culatra.

Se em algum momento sua criação ganhasse vida própria, ainda assim continuaria legalmente representante, já que, ao contrário de um adulto, um robô jamais teria o mesmo poder de discernimento por ser desprovido de sentimentos.

Seguindo esta tese, profissões que possam causar qualquer tipo de dano moral ou físico à sociedade, como médicos, soldados, juízes – e, levando em conta os casos recentes do Uber e da Tesla, os motoristas -, não deveriam, em princípio, ser totalmente automatizadas e a palavra final, para o bem-estar e a segurança geral da Nação, será sempre do homem.

Frente a esta nova realidade em que não sabemos o que é feito com nossos dados, a União Europeia criou o General Data Protection Regulation, regulamento que entrará em vigor no próximo mês de maio para definir os parâmetros legais para empresas manusearem as informações de seus usuários. Uma das principais prerrogativas é de que os clientes deverão dar autorização expressa para que seus dados sejam acessados.

A Dra Paula Boddington, em sua palestra no 3GSM deste ano, em Barcelona, lembrou que um dos princípios estipulados pelo maior grupo de especialistas de inteligência artificial reunidos pelo Instituto ‘Future of Life’ propõe que a responsabilidade seja atribuída diretamente aos criadores de tais “inteligências”, que responderão como autores e arcarão com todas as consequências dos atos de suas criações.

Como bem pontuou Jeff Catlin, CEO da Lexalytics, “a ética é algo que os humanos podem sentir mais do que intelectualizar. Não podemos treinar este sentimento e apesar de podermos dar a Inteligência Artificial exemplos de comportamento ético, é inevitável que irá esquecer alguns. A Inteligência Artificial poderia receber treinamento para ser ética, mas somente seria tão ética quanto foi treinada para ser”.

Com um mundo globalizado e com o software na ‘nuvem da internet’, qual ética será aplicada? Dos EUA? Da Europa? Da China? Do Brasil? Deverá ser travado um debate profundo sobre como os sistemas de IA irão absorver e seguir estes padrões.

Oren Etzioni, chefe executivo do Allen Institute for Artificial Intelligence, completa com três regras que considera indispensáveis ao nosso bom convívio com as máquinas:

• Um sistema de IA deve estar sujeito às mesmas leis aplicadas ao seu operador humano. Minha IA fez isso não poderá ser uma desculpa para um comportamento ilegal.

• Um sistema de IA deve sempre deixar claro que não é humano.

• Um sistema de IA não pode reter ou revelar informações confidenciais sem a aprovação explícita da fonte de informação.

É difícil apostar todas as minhas fichas de que um dia um robô terá total entendimento sobre o que é ou não ético. Mas não custa lembrar que, em última instância, a humanidade continuará sendo sempre os pais da criança. E, por isso, é bom também não esquecer que, ao menos em princípio, a lei é para todos.

(*) Omarson Costa é formado em Análise de Sistemas e Marketing, tem MBA e especialização em Direito em Telecomunicações. Em sua carreira, registra passagens em empresas de telecom, meios de pagamento e Internet

(*) Imagem em destaque, fonte Joey Kyber

Publicidade

Compartilhe

Veja também