Elaborado pelos pesquisadores Rafael Cardoso Sampaio, Marcelo Sabbatini e Ricardo Limongi para o site da Intercom, o manual “Diretrizes para o uso ético e responsável da Inteligência Artificial: um guia prático para pesquisadores” propõe à comunidade acadêmica boas práticas para a utilização de IAS generativas. Em um contexto marcado por preocupações com plágio, originalidade e principalmente com o pensamento autônomo, a publicação recomenda o protagonismo humano na pesquisa, sem deixar de reconhecer usos legítimos da tecnologia.
INTEGRIDADE ACADÊMICA E RIGOR
Os autores ao reconhecerem que proibir não é uma maneira eficaz, ou seja, incorporar ao processo pode ser estratégico e traz orientações com a finalidade de educar e também instruir o processo de pesquisa considerando o uso destas ferramentas. O guia reúne princípios e dicas práticas que ajudam a incorporar a tecnologia à pesquisa sem comprometer a integridade científica. Entre as recomendações, o e-book reforça que a IA deve ser usada como ferramenta de apoio, visto que as operações funcionais realizadas pela IA não substituem as determinações, o pensamento crítico e a responsabilidade humana no desenvolvimento da pesquisa.
Isso significa que o pesquisador precisa conhecer quais ferramentas usar e que tais ferramentas, muitas vezes, estão carregadas de vieses de origem e de concepção sobre os temas de pesquisa, os quais podem impactar a integridade científica da investigação. O manual também alerta para riscos comuns, como plágio involuntário, invenção de dados e referências falsas, fenômeno conhecido como “alucinação”. Outro ponto central é o dilema da transparência: quando a IA é usada na pesquisa para determinados usos, como revisar, traduzir, estruturar ou sugerir textos, isso deve ser informado com clareza.
Os autores do Manual ressaltam a importância de o uso da IA ser orientado por buscas e operações seguras, sempre exaltando a necessidade do relato metodológico transparente em benefício dos aspectos éticos da pesquisa. A principal questão que se coloca em relação ao uso da IA é a pertinência desse uso em relação à autoria e à responsabilidade científica das produções. Simples e prático, o guia ajuda estudantes e professores a integrar a IA às pesquisas sem abrir mão da ética, da integridade e rigor acadêmico.
Ao reunir princípios claros e exemplos práticos, o guia mostra que a discussão sobre IA não é apenas tecnológica, mas também pedagógica, científica e ética. Mais do que controlar ferramentas, trata-se de formar pesquisadores conscientes, capazes de usar a inovação sem abrir mão da autoria, do rigor e da responsabilidade. Em um cenário em que a inteligência artificial avança com rapidez, o manual chega como um lembrete: na ciência, a tecnologia pode apoiar, mas é o pensamento humano que conduz o conhecimento.
CONSEQUÊNCIAS DO MAU USO DA IA
Diante desse contexto, o uso das Inteligências Artificiais Generativas tem crescido de forma acelerada nos últimos anos, levantando preocupações sobre seus impactos na ética científica. O CHAT GPT, lançado em 30 de novembro de 2022, foi recebido com muito entusiasmo, no entanto, provocou transformações na vida social das pessoas, além de afetar a produção de conhecimento científico.
Desde a popularização dos algoritmos e da coleta massiva de dados, há a preocupação com a transparência e a autoria, visto que as IAs são capazes de fazer uma série de tarefas, que até então eram feitas apenas por humanos, esse fato pode contribuir para uma queda na qualidade de produção científica.
Por isso, o manual Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores, escrito pelos pesquisadores Rafael Cardoso Sampaio, Marcelo Sabbatini e Ricardo Limongi, se faz necessário para compreender como essas ferramentas atuais podem contribuir com a produção de ciência garantindo a qualidade e originalidade da pesquisa.
Acesse o manual pelo link: https://portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203