Líderes da indústria de tecnologia pedem regulamentação de Inteligência Artificial

IA traz benefícios, mas uso abusivo pode acarretar consequências negativas para a sociedade, dizem executivos. Entenda

A proliferação da Inteligência Artificial (IA) está em todas as listas de tendências publicadas recentemente. Mas as possíveis consequências negativas do uso indiscriminado da tecnologia preocupam líderes da indústria, que pedem uma maior regulamentação sobre o assunto.

Nas últimas semanas, os CEOs do Google, Microsoft e IBM vieram a público para defender que governos e empresas encontrem juntos uma maneira de regular o desenvolvimento e o uso de aplicações de Inteligência Artificial.

Softwares de reconhecimento facial são os mais citados quando se fala no perigo do uso indiscriminado de Inteligência Artificial, mas outras aplicações também motivam o debate.

WHOW! Veja os principais insights sobre o assunto no nosso portal de inovação para negócios

Sistemas de carros autônomos que devem decidir o que fazer na iminência de um acidente e viés raciais de algoritmos analisam informações de crédito, por exemplo, são temas que devem ser discutidos e regulamentados, segundo os CEOs.

O CEO do Google, Sundar Pichai, publicou um artigo no Financial Times neste mês pedindo a governos de todo o mundo que regulamentem o uso da Inteligência Artificial. No artigo, Pichai diz que a tecnologia sensível não deve ser usada para “apoiar a vigilância em massa ou violar os direitos humanos”.

Arte Emanuel Polanco (Pinterest)

Sundar Pichai voltou a abordar o tema durante seu discurso na última semana no Fórum Econômico Mundial, em Davos.

“A Inteligência Artificial é uma das coisas mais profundas em que estamos trabalhando como humanidade. É mais profunda que o fogo ou a eletricidade”, disse Pichai.

Em seu discurso, o CEO do Google afirmou que a tecnologia traz benefícios, mas também há consequências negativas. “Não há dúvida de que a Inteligência Artificial precisa ser regulamentada. A questão é a melhor forma de abordar isso”, disse.

O presidente da Microsoft, Brad Smith, também falando em Davos, disse que o mundo “não deve esperar que a tecnologia amadureça” para só depois regulamentar o uso da IA.

Em entrevista à NPR, o CEO da Microsoft explica que a regulamentação é necessária por conta dos possíveis usos abusivos da tecnologia, como reconhecimento facial.

“É o tipo de tecnologia que pode fazer muito bem a muitas pessoas, mas pode ser mal utilizada. Pode ser usada de maneiras que levem à discriminação e preconceito. Pode realmente tornar possível o tipo de vigilância em massa que no passado sempre foi tema de ficção científica”, disse Smith.

Novas diretrizes para tecnologia

A IBM lançou na última semana, durante o Fórum Econômico Mundial, em Davos, o IBM Policy Lab, um novo fórum global destinado a discutir e publicar recomendações de políticas e diretrizes para os desafios da tecnologia. Dentre os temas principais está a regulamentação da Inteligência Artificial.

Antes do evento de lançamento, o IBM Policy Lab divulgou prioridades para a regulamentação da Inteligência Artificial. O documento sobre regulamentação de IA descreve cinco recomendações de políticas para as empresas, sejam elas fornecedores ou proprietários de sistemas.

“É necessário que haja uma regulamentação de Inteligência Artificial, mas ela deve ser cuidadosamente pensada para permitir o avanço tecnológico”, afirma a CEO da IBM, Ginni Rometty. “Você quer que a inovação floresça e precisa equilibrar isso com segurança”, disse Ginni.

Inteligência ArtificialVeja abaixo as recomendações da IBM para empresas que desenvolvem ou utilizam sistemas de Inteligência Artificial:

1.Designe um líder de ética em IA

Assim como existem os líderes de Compliance, as empresas devem designar também um líder de Inteligência Artificial para garantir o uso ético da tecnologia.

2. Regras diferentes para diferentes riscos

Todas as empresas que fornecem ou utilizam sistemas de Inteligência Artificial devem avaliar o potencial de dano da tecnologia. A regulamentação interna deve tratar os diferentes casos de acordo com os riscos.

3. Não esconda a Inteligência Artificial

Transparência gera confiança. É necessário tornar claro o objetivo de um sistema de Inteligência Artificial para consumidores e empresas. Ninguém deve ser enganado ao interagir com a IA.

4. Explique a Inteligência Artificial

Qualquer sistema de IA que esteja fazendo determinações ou recomendações com implicações potencialmente significativas para os indivíduos deve ser capaz de explicar e contextualizar como e por que chegou a uma conclusão específica.

5. Teste a Inteligência Artificial

Todas as organizações no ciclo de vida de desenvolvimento da IA ​​têm algum nível de responsabilidade compartilhada para garantir que os sistemas sejam justos e seguros. Isso requer testes de imparcialidade, preconceito, robustez e segurança, e a tomada de ações corretivas, conforme necessário.

Google cria inteligência artificial para obter previsão do tempo em tempo recorde

Conheça o Remini, app que recupera fotos por inteligência artificial

Intel lança primeiro chip de inteligência artificial







ASSINE NOSSA NEWSLETTER

MAIS LIDAS

VEJA MAIS

ÚLTIMAS

VEJA MAIS

CM 256: Os vencedores do Prêmio Consumidor Moderno de Excelência em Serviços ao Cliente

CM 255: Tudo o que você precisa saber sobre o consumidor na pandemia

Você já conhece as Identidades do consumidor?

VEJA MAIS