NOTÍCIAS

MENU NOTÍCIAS

20/03/2024

O aumento de produtividade proporcionado por softwares como chat gpt pode ter um lado negativo.

O aumento de produtividade proporcionado por softwares como chat gpt pode ter um lado negativo. 

 

Tendo sido lançado em novembro 2022 pela empresa OpenAI, o sucesso do ChatGPT foi estrondoso e dois meses depois, ChatGPT já havia sido listado como autor em vários artigos de pesquisa e as editoras acadêmicas anunciavam políticas sobre o uso do ChatGPT e outros modelos no processo de redação. 

 

Até outubro de 2023, 87 das 100 principais revistas científicas tinham fornecido orientações sobre a utilização de IA generativa, que pode criar textos, imagens e outros conteúdos. Considerando a competitividade do meio acadêmico, qualquer ferramenta que permita aos cientistas produzirem mais rápido será muito atrativa. 

 

Os cientistas estão usando rotineiramente inteligência artificial para escrever artigos?

Os modelos GPT mais antigos eram de difícil acesso para o público mais leigo, sendo a versão atual uma verdadeira revolução que propiciou a democratização desse aplicativo, levando ao seu uso, inclusive, na redação de pesquisas. Em uma pesquisa da Nature de 2023 com mais de 1600 cientistas, quase 30% disseram que usaram ferramentas generativas de IA para ajudar a escrever manuscritos, e cerca de 15% disseram que as usaram para ajudar a escrever pedidos de financiamento. 

 

Quais os benefícios para os pesquisadores? 

De acordo com cerca de 55% dos entrevistados no inquérito da Nature consideraram que um dos principais usos da IA generativa é a sua capacidade de editar e traduzir escritos para pesquisadores cuja língua materna não é o inglês. Da mesma forma, numa sondagem realizada pelo Conselho Europeu de Investigação (ERC), que financia a investigação na União Europeia, 75% dos mais de 1.000 beneficiários de subvenções do ERC consideraram que a IA generativa reduziria as barreiras linguísticas na investigação até 2030, de acordo com um relatório divulgado em 2 de dezembro .

Dos entrevistados no inquérito ERC, 85% consideraram que a IA generativa poderia assumir tarefas repetitivas ou de trabalho intensivo, tais como revisões de literatura. E 38% sentiram que a IA generativa promoveria a produtividade na ciência, ajudando, por exemplo, os investigadores a escrever artigos a um ritmo mais rápido.

Quais as desvantagens? 

Embora a produção do ChatGPT possa ser convincentemente semelhante à humana, Weber-Wulff alerta que os LLMs ainda podem cometer erros de linguagem que os leitores podem notar. Essa é uma das razões pelas quais ela defende que os pesquisadores reconheçam o uso do LLM em seus artigos. Os chatbots também são famosos por gerar informações fabricadas, chamadas alucinações.

 

E há uma desvantagem no aumento de produtividade que os LLMs podem trazer. Acelerar o processo de redação de artigos poderia aumentar o rendimento dos periódicos, potencialmente sobrecarregando os editores e revisores ainda mais do que já estão.

 

Qual a posição do editores científicos em relação a esse uso?

De acordo com o estudo publicado no The BMJ , 24 dos 100 maiores editores do mundo — responsáveis colectivamente por mais de 28 000 revistas — forneceram, até Outubro passado, orientação sobre IA generativa 1 . Periódicos com políticas de IA generativa tendem a permitir algum uso de ChatGPT e outros LLMs, desde que sejam devidamente reconhecidos.

A Springer Nature, por exemplo, afirma que o uso de inteligência artificial deve ser documentado nos métodos ou em outra seção do manuscrito, uma diretriz introduzida em janeiro de 2023. As ferramentas de IA generativa, no entanto, não satisfazem os critérios de autoria, porque isso “traz consigo responsabilidade pelo trabalho, e as ferramentas de IA não podem assumir tal responsabilidade”. 

Aplicar essas regras é mais fácil de falar do que fazer, porque o texto não divulgado gerado pela IA pode ser difícil de ser detectado pelos editores e revisores por pares. Alguns detetives descobriram isso através de frases sutis e erros de tradução . Ao contrário dos casos de plágio, em que existe material de origem claro, “não é possível provar que algo foi escrito pela IA”, diz Weber-Wulff. Apesar dos pesquisadores correrem para criar ferramentas de detecção de LLM , “não vimos nenhuma que pensássemos que produzisse um resultado suficientemente convincente” para rastrear submissões de periódicos, diz Holden Thorp, editor-chefe da família de periódicos Science.


 

fonte: https://www.nature.com/articles/d41586-024-00592-w

Assine nossa newsletter