
Sara Cristina Mateus, Universidade de Aveiro (Portugal)
Mestranda em Educação e Formação – Supervisão no Departamento de Educação e Psicologia da Universidade de Aveiro. Tutora pedagógica no IPAM Porto no projeto suPERA (Universidade Europeia). Colabora no projeto PIC-Edu 2024/2025, investigando a integração da inteligência artificial generativa na investigação qualitativa e no ensino superior.

Yakamury Lira, Universidade de Aveiro (Portugal)
Doutorando em Educação – Didática e Desenvolvimento Curricular na Universidade de Aveiro e investigador no Centro de Investigação em Didática e Tecnologia na Formação de Formadores (CIDTFF). Investiga a integração da inteligência artificial generativa (GenAI) na formação de investigadores. Tem experiência em ensino de ciências, tecnologias educacionais e cultura maker.
Até onde pode — e deve — a inteligência artificial substituir o olhar e o discernimento humanos na investigação qualitativa? É esta uma das interrogações mais prementes da atualidade. Num tempo em que algoritmos e consciência se cruzam cada vez mais nas nossas escolas e centros de investigação, esta interrogação tornou-se particularmente urgente.
A inteligência artificial (IA), particularmente com o avanço recente da inteligência artificial generativa (GenAI), tornou-se uma presença quotidiana nos contextos educativos, científicos e sociais. A sua integração em processos como a investigação qualitativa revela um potencial inegável — não apenas na automatização de tarefas analíticas, mas também na expansão das possibilidades de visualização e interpretação de dados complexos. Contudo, este crescimento acelerado levanta simultaneamente questões éticas e epistemológicas que exigem reflexão crítica. Até que ponto podemos — e devemos — confiar à IA tarefas tradicionalmente humanas, como interpretar, avaliar ou decidir?
O recente estudo de Paiva, Costa e Reis (2025) demonstra que ferramentas como o ChatGPT podem atuar como mentor, ferramenta e simulador no desenvolvimento do pensamento crítico e criativo em alunos do ensino secundário, integrando um modelo estruturado em seis etapas. Este estudo revela ganhos significativos nas disposições de pensamento crítico dos alunos, sobretudo entre aqueles com pontuações iniciais mais baixas. Segundo as reflexões de Paiva, Costa e Reis (2025), pode-se compreender que a IA, ao ser introduzida nos contextos educativos, exige sempre uma mediação pedagógica atenta e uma abordagem crítica enraizada em valores humanistas
Já a investigação conduzida por Hamilton et al. (2023) comparou análises qualitativas realizadas por investigadores humanos e pelo ChatGPT, usando entrevistas com participantes de um programa de rendimento garantido. Os resultados indicam que, apesar de haver sobreposições temáticas, cada abordagem captou dimensões distintas da experiência humana. A IA identificou padrões com rapidez, mas falhou em captar nuances subjetivas que os investigadores humanos conseguiram discernir. A conclusão é inequívoca: a IA pode ser um recurso, mas não substitui o olhar crítico, ético e contextualizado do investigador.
A inteligência artificial como cocolaboradora – não como decisora
É justamente no terreno da prática que estes desafios se materializam com maior nitidez. No âmbito do projeto PIC-Edu 2024/2025, desenvolvido pelo Departamento de Educação e Psicologia da Universidade de Aveiro, tenho vindo a analisar, juntamente com o Doutorando Yakamuri Lira e o Prof. António Pedro Costa, o potencial e os limites da colaboração entre humanos e IA em processos de análise de dados qualitativos. Uma experiência particularmente significativa envolveu a tentativa de categorização de mais de 300 resumos de artigos científicos.
A IA demonstrou ser útil ao acelerar tarefas repetitivas e a identificar padrões preliminares, sobretudo quando aplicada numa abordagem dedutiva, com categorias previamente definidas e em contextos de análise restrita, baseados na leitura de títulos, resumos e num conjunto reduzido e controlado de palavras-chave diretamente relacionadas com os temas em estudo. Nestes casos, ao trabalhar com um número limitado de variáveis semânticas, a IA consegue realizar associações mais diretas e consistentes.
No entanto, à medida que o volume de termos aumenta ou quando as palavras-chave exigem interpretações contextuais mais sofisticadas, o seu desempenho torna-se progressivamente mais instável e sujeito a erros de categorização — mesmo após sucessivos ajustamentos nas prompts e critérios aplicados. Esta limitação evidenciou também a importância crescente do domínio do prompt engineering, uma competência emergente que exige a formulação precisa e estratégica das instruções fornecidas à IA para otimizar os resultados obtidos. As dificuldades foram particularmente evidentes em situações com linguagem ambígua, conceitos complexos ou quando se tentava realizar análises em larga escala.
Além disso, em determinadas situações, o modelo generativo apresentou o fenómeno conhecido como hallucination, produzindo classificações ou associações que, embora pareçam plausíveis do ponto de vista linguístico, são factualmente incorretas, comprometendo assim a fiabilidade das respostas, especialmente em contextos ambíguos ou pouco estruturados. Adicionalmente, mesmo em tarefas aparentemente simples, como a identificação de coocorrências de expressões ou palavras, observámos limitações no desempenho dos modelos de linguagem de grande escala (Large Language Models – LLMs), como o ChatGPT, sobretudo quando a complexidade semântica e o volume de informação a processar ultrapassam a sua capacidade de manter o contexto relevante, afetando a precisão na deteção de relações mais subtis entre conceitos
Esta experiência reforçou em mim a convicção de que a mediação humana é absolutamente imprescindível. A IA pode apoiar o trabalho inicial de análise e mapeamento, mas não substitui a capacidade interpretativa, o conhecimento prévio e o pensamento crítico do investigador. A identificação de categorias, a validação de correspondências e a interpretação de subtilezas continuam a depender do olhar humano — aquele que é capaz de captar ambiguidade, contradição e sentido implícito onde o algoritmo apenas vê padrões.
O contributo de António Pedro Costa, enquanto investigador do CIDTFF e coautor do webQDA, assume um papel central na discussão da integração da inteligência artificial (IA) na investigação qualitativa. Segundo os estudos recentes, a adoção de ferramentas digitais, como o webQDA e outros softwares CAQDAS, permite aos investigadores melhorar os processos de organização, codificação e visualização de dados qualitativos complexos, incluindo a geração de mapas temáticos, diagramas e representações tridimensionais. Estes avanços oferecem novas formas de análise sem comprometer a necessária responsabilidade interpretativa e ética, que continua a pertencer ao investigador (Bryda & Costa, 2024; Bryda & Costa, 2023).
A eficiência destas ferramentas, no entanto, não deve ser confundida com precisão automática, já que subsistem riscos associados à reprodução de enviesamentos dos dados de treino e à descontextualização analítica. De facto, os próprios dados que alimentam estes modelos incorporam, muitas vezes de forma invisível, marcas culturais, históricas e linguísticas, o que faz com que a neutralidade aparente da IA seja, na realidade, um espaço de reconstrução de subjetividades e potenciais distorções. A autonomia do investigador e a intencionalidade metodológica permanecem fundamentais para evitar a aplicação acrítica das capacidades algorítmicas (Christou, 2023).
Estas competências são o alicerce da transição metodológica para o digital. Com elas, é possível garantir a validade, a fiabilidade e o rigor ético em cada etapa do processo investigativo. A aquisição destas competências torna-se, assim, uma condição para maximizar as potencialidades dos ambientes digitais e garantir a integridade dos projetos de investigação (Pope & Costa, 2023). Importa, ainda, reconhecer que a rápida evolução dos modelos de inteligência artificial exige dos investigadores uma permanente atualização de conhecimentos técnicos e metodológicos, de modo a acompanhar as sucessivas transformações nas capacidades e limitações destes sistemas.
Paralelamente, a crescente digitalização da investigação qualitativa transforma também o próprio perfil do investigador, conduzindo a práticas colaborativas mais amplas, transdisciplinares e interculturais. As plataformas digitais viabilizam colaborações síncronas e assíncronas, permitindo que equipas de investigação distribuídas globalmente operem em tempo real, o que redefine a epistemologia da investigação qualitativa contemporânea (Bryda & Costa, 2023). Neste enquadramento, a integração da IA não é apenas uma melhoria técnica; ela redefine o próprio modo como concebemos o conhecimento e a prática investigativa.
Esta abordagem torna-se particularmente relevante na formação de novos investigadores, proporcionando-lhes, desde o início, uma consciência crítica e ética sobre o uso da inteligência artificial na produção de conhecimento, bem como a capacidade de integrar estas tecnologias de forma responsável e reflexiva nos seus percursos científicos.
A última palavra é (e deve ser) humana
A colaboração entre humanos e IA é hoje uma realidade incontornável, com potencial transformador nos domínios pedagógico e científico. Segundo Hamilton et al. (2023), a IA deve ser integrada em processos de triangulação e não utilizada como substituto da interpretação humana. No futuro próximo, será fundamental investir na literacia digital crítica dos profissionais da educação e da investigação, promovendo uma integração ética, reflexiva e contextualizada da IA. Só assim asseguraremos que a tecnologia permanece ao serviço do humano — e nunca o inverso.
Referências
Bryda, G., & Costa, A. P. (2023). Qualitative research in digital era: Innovations, methodologies and collaborations. Social Sciences, 12(10), 570. DOI:10.3390/socsci12100570
Bryda, G., & Costa, A. P. (2024). Tecnologias transformativas: inteligência artificial e grandes modelos de linguagem na pesquisa qualitativa. Revista Baiana de Enfermagem, 38, e61024. DOI 10.18471/rbe.v38.61024
Christou, P. (2023). How to use artificial intelligence (AI) as a resource, methodological and analysis tool in qualitative research? The Qualitative Report, 28(7), 1968–1980. https://doi.org/10.46743/2160-3715/2023.6406
Hamilton, L., Elliott, D., Quick, A., Smith, S., & Choplin, V. (2023). Exploring the use of AI in qualitative analysis: A comparative study of guaranteed income data. International Journal of Qualitative Methods, 22, 1–13. https://doi.org/10.1177/16094069231201504
Paiva, R. S., Costa, A. P., & Reis, L. P. (2025). ChatGPT como catalisador do pensamento crítico e criativo. Práxis Educativa, 20, e24247, 1–23. https://doi.org/10.5212/PraxEduc.v.20.24247.007
Pope, E. M., & Costa, A. P. (2023). The Case for Computational Competence and Transversal Skills: Using Digital Tools and Spaces for Qualitative Research. The Qualitative Report, 28(10), 2838-2847. https://doi.org/10.46743/2160-3715/2023.6676


