Algoritmos de “escrita fake” já conseguem enganar leitores

Robôs já são capazes de escrever textos de vários parágrafos de forma convincente

Você saberia identificar um texto escrito por robôs? E se esse texto tivesse sido escrito por um algoritmo de inteligência artificial, será que seria fácil perceber? Essas perguntas podem parecer sem sentido, mas pesquisadores já conseguiram desenvolver sistemas com capacidade para criar textos de vários parágrafos, de forma autônoma, e que parecem ter sido escritos por alguém fluente no idioma.

A nova tecnologia é resultado dos investimentos no desenvolvimento de processamento de linguagem natural (Natural Language Processing – NPL), necessários para melhorar as interações com chatbots, assistentes virtuais e tradutores automáticos. O algoritmo examina uma amostra de texto e “adivinha” a palavra seguinte com base na frequência com que essa palavra apareceu em contextos semelhantes nos dados de treinamento.

Os sistemas usam banco de dados de textos já publicados para poder entender os jargões e formatos de conteúdos a serem reproduzidos. Dependendo da base utilizada, é possível espelhar o estilo de redação de qualquer profissão ou, com amostras suficientes, de qualquer indivíduo.

Embora pareça inofensiva, a geração automática de textos coerentes e com cara de legítimos tem seus riscos. Hoje, se alguém mal intencionado quiser disseminar fake news ou melhorar as avaliações de um produto por meio de avaliações falsas na Amazon, por exemplo, ele terá de contratar pessoas para produzir o conteúdo de forma “artesanal”.

Com uma ferramenta de geração de textos convincentes, será fácil falsificar avaliações da Amazon, distribuir notícias falsas e publicar comentários em blogs e portais em uma fração do tempo que um ser humano precisaria. Além disso, uma versão sofisticada dos algoritmos pode ser boa o suficiente para permitir que alunos criem trabalhos plagiados e spammers melhorem a qualidade de suas mensagens.

Sucesso nos testes

Um dos algoritmos já em testes, batizado de GPT-2, foi desenvolvido pela OpenIA no ano passado. Os textos gerados pelo GPT-2 foram avaliados por métodos que identificam robôs e os resultados mostram que o algoritmo consegue se passar por humano na maioria das vezes.

Uma das avaliações realizadas foi o teste do esquema Winograd. Um esquema de Winograd é uma frase gramaticalmente ambígua, mas não ambígua para os seres humanos, porque temos o contexto para interpretá-lo. Antes do GPT-2, geradores de textos conseguiam interpretar a frase em uma taxa de sucesso de 63%. Com o GPT-2, a taxa de sucesso subiu para 71%. Os seres humanos têm uma taxa de acerto de 92%.

O GPT-2 também estabeleceu melhoras em outros testes de idiomas. O teste LAMBADA, por exemplo, avalia a capacidade de um computador de usar o contexto mencionado anteriormente em uma história para concluir uma frase. O melhor desempenho anterior tinha uma precisão de 56%. O GPT-2 alcançou 63% de precisão. Neste teste, os sere humanos têm uma taxa de acerto de 95%.


Inteligência artificial ajuda a alertar e desenvolver soluções para surto de coronavírus
Robôs superam analistas humanos em sugestões de investimento na Bolsa de Valores
Robôs sabem o que você quer, na hora que você quer. Conheça a empatia artificial

MAIS LIDAS

VEJA MAIS

ÚLTIMAS

VEJA MAIS

As IDENTIDADES do novo consumidor sem rótulos #CM25ANOS

Futuro incerto? O que pensam os futuristas em tempos de crise social

“Contágio” e outros filmes sobre epidemias para ver dentro de casa

Manu Gavassi e sua brilhante estratégia de branding. O que as marcas podem aprender com ela?

A ascenção das newsletters

VEJA MAIS