António Pedro Costa, Universidade de Aveiro (Portugal)
Investigador do Centro de Investigação em Didática e Tecnologia na Formação de Formadores (CIDTFF), Departamento de Educação e de Psicologia, da Universidade de Aveiro e colaborador do Laboratório de Inteligência Artificial e Ciência de Computadores (LIACC), da Faculdade de Engenharia da Universidade do Porto.
Uma das grandes dificuldades dos estudantes de mestrado e, também, doutoramento é a escrita de textos com rigor e qualidade científicos. Com o surgimento dos assistentes de escrita com Inteligência Artificial (IA), os estudantes podem colmatar esta lacuna usando esta nova tecnologia de forma ética e honesta. Para o efeito, é crucial estabelecer diretrizes que consigam sensibilizar para a integridade académica dos estudantes e distinguir a “escrita assistida por IA” da “escrita gerada por IA”.
A escrita assistida por IA deveria ser permitida apenas na condição de o estudante usar um assistente de escrita com IA como uma ferramenta colaborativa para ajudá-lo a desenvolver e avançar no seu processo. A colaboração com um assistente de redação de IA pode incluir brainstorming, esboço e rascunho, desde que, por exemplo, o estudante tenha escrita, pesquisa e composição substanciais, que não sejam geradas apenas por IA.
“Escrita gerada por IA” significa que houve pouco ou nenhum envolvimento do estudante como autor, sendo a maior parte da escrita gerada por Inteligência Artificial, ao passo que “escrita assistida por IA” visa ajudar os utilizadores a desenvolver o seu processo de escrita e pensamento crítico e não substituir um deles. Por conseguinte, usar IA para gerar escrita ou composições sem contribuições originais substanciais do autor não pode ser aceitável nem permitido.
A utilização de Inteligência Artificial no processo de escrita académica coloca-nos num equilíbrio delicado entre o potencial enriquecedor e a integridade.
Com a proliferação de ferramentas de IA Generativa, muitas conferências e publicações científicas antecipam já o possível impacto da IA no seu setor, impondo regras aos autores sobre o uso destas ferramentas. Por exemplo, a revista New Trends in Qualitative Research (NTQR) inclui, na sua declaração de ética e boas práticas, a ressalva de que “A utilização de sistemas de IA para gerar texto só é permitida se o seu papel estiver devidamente documentado no artigo (por exemplo, ao relatar experiências com esses sistemas). No entanto, é permitida a utilização de sistemas alimentados por IA para ajudar a polir o texto de autoria humana.”
Estabelecer diretrizes precisas e pormenorizadas sobre o uso da IA na escrita académica (ver quadro seguinte) é um imperativo que ajudará a orientar os autores no que concerne à integridade do trabalho científico, delineando nitidamente as práticas aceitáveis das condutas académicas reprováveis. No entanto, mesmo com um quadro normativo bem definido, as infrações intencionais continuam a ser uma possibilidade, exigindo, por isso, um sistema de vigilância e penalizações claro, que possa detetar e desmotivar tais desvios antes que eles maculem o corpo coletivo do conhecimento académico.
Nesse sentido, instituições universitárias e editoriais precisam não só fazer valer as suas políticas através de verificações atentas e constantes, mas também promover uma cultura ética que naturalize a autenticidade e repulse a cópia, para que a emergência constante de novas ferramentas não sirva de pretexto para subterfúgios dolosos sob o pretexto de inovação.
Aceitável | Não aceitável |
---|---|
Escrita assistida por IA | Escrita gerada por IA |
Usar a escrita assistida por IA para debater ideias
| Ludibriar no processo de escrita e pesquisa |
Explorar novos tópicos/ideias com a escrita assistida por IA | Gerar grandes blocos de texto com pouca ou nenhuma contribuição do autor |
Usar a escrita assistida por IA para explorar possíveis contra-argumentos / pontos de vista opostos | Confiar em algo que a IA gerou pelo valor nominal |
Rever a escrita aceitando sugestões do assistente de IA de forma a fazer melhorias
| Usar texto gerado por IA como substituto da investigação ou do pensamento crítico
|
Para finalizar esta pequena reflexão, o resultado de texto gerado pela IA pode conter material ofensivo, tendencioso ou que vá contra a ética académica, material falso, enganoso ou potencialmente prejudicial, ou outro conteúdo problemático, cujo uso pode estar fora das proteções da liberdade académica e/ou liberdade de expressão.
Os autores devem rever cuidadosamente todos os resultados gerados pela Inteligência Artificial antes de usar qualquer sugestão da IA no seu trabalho académico. Este procedimento pode exigir um aprofundamento de competências digitais (saber usar este tipo de ferramentas do ponto de vista técnico, por exemplo, como gerar as instruções – as prompts) e algumas competências transversais, como é caso do pensamento crítico.
Em síntese, a utilização de Inteligência Artificial no processo de escrita académica coloca-nos num equilíbrio delicado entre o potencial enriquecedor e a integridade. Ao definir critérios éticos, salvaguardamos a originalidade e o valor da contribuição individual. Por conseguinte, impõe-se um comprometimento ativo com o desenvolvimento de capacidades críticas e técnicas para o manuseio apropriado das ferramentas IA na investigação, que deve ser visto como um aliado moderno que não dispensa o julgamento sagaz e o toque humano que apenas autores ponderados, conscienciosos e humanos podem providenciar.
Nota: Parte deste texto foi adaptado de Marc Watkins, Bolseiro de Inovação Académica e Professor de Escrita e Retórica, Diretor do Instituto de IA para Professores de Escrita da Universidade do Mississippi. É co-chair do grupo de trabalho de IA do seu departamento e trabalha em ligação com outros departamentos do campus, explorando o impacto da IA generativa no ensino e na aprendizagem. Tem um blogue sobre IA e educação na Rhetorica e, pequenas partes, devidamente refinadas, de uma conversa amigável com o software lex.page. O Lex é um processador de texto alimentado por IA que funciona de forma muito semelhante a um Google Doc tradicional, com a caraterística adicional de permitir que os utilizadores recorram à assistência da IA sempre que necessário. Utiliza o mesmo modelo que alimenta o ChatGPT.