
António Pedro Costa, Universidade de Aveiro (Portugal)
Investigador do Centro de Investigação em Didática e Tecnologia na Formação de Formadores (CIDTFF), Departamento de Educação e de Psicologia, da Universidade de Aveiro e colaborador do Laboratório de Inteligência Artificial e Ciência de Computadores (LIACC), da Faculdade de Engenharia da Universidade do Porto.
A reação ao surgimento de uma nova tecnologia implica uma série de ajustes por parte de pessoas e de instituições, ajustes esses que exigem tempo de maturação. Mas, ao contrário de tecnologias anteriores, em que dispúnhamos de ciclos longos para nos adaptarmos, o aparecimento da IA Generativa inaugurou um novo paradigma, impondo uma aceleração sem precedentes. Designar esta tecnologia apenas como “generativa” é redutor: ela transforma a forma como percebemos, agimos e interpretamos o mundo, e exige uma educação crítica, situada e territorializada, capaz de responder ao saber-ser, saber-estar e saber-fazer da contemporaneidade. Como passar da IA generativa e deste novo paradigma para a educação? Tal como a filosofia alemã mostra que não há compreensão sem mundo, também não há política tecnológica eficaz sem território.
O papel da educação na definição de políticas públicas é, muitas vezes, ignorado, subestimado ou capturado por agendas que pouco dialogam com a realidade das escolas. Recordo-me de uma viagem ao Brasil, a Recife, quando me deparei com vários outdoors anunciando a distribuição de 200 mil tablets para as escolas do estado de Pernambuco. Era uma medida politicamente vistosa, com resultados imediatos para quem olha de fora, mas, pelo que pude perceber, sem o envolvimento efetivo dos atores educacionais. No dia seguinte, na mesma cidade, durante uma palestra sobre desenvolvimento de recursos educacionais, vários participantes perguntaram-me o que fazer com os tablets se as escolas não tinham infraestrutura básica, não existindo pontos de energia suficientes, nem acesso adequado à internet. Este contraste expõe um problema central em que as decisões tecnológicas continuam a ser tomadas sem que a educação seja considerada como dimensão estrutural da política pública. E, diante da inteligência artificial, a pergunta torna-se ainda mais urgente: qual é, afinal, o papel da educação na era da IA?
As projeções (figura 1) da linha de tempo do European Innovation Council apontam para:
- IA Generativa (2022) – usamos para gerar texto, código para diferentes fins e análises básicas. A educação tem de ensinar uso crítico da informação;
- IA Agentiva (2026) – apesar de surgir na figura em 2026, iniciou-se em 2025 o trabalho com a criação de agentes, em que os sistemas planeiam e executam tarefas. A educação precisa de reforçar o ensino da supervisão humana, a avaliação, a validação e a tomada de decisão;
- IA Cognitiva (2030) – modelos que raciocinam, explicam, integram conhecimento. A educação passa a formar coorientadores, não utilizadores. Os currículos precisam, por exemplo, de incluir epistemologia, governança digital, ética ampliada;
- IA Física (2035) – robôs adaptativos na saúde, agricultura, emergência climática. A educação passa a formar profissionais de interface, ou seja, humanos que negociam com máquinas;
- IA Autónoma (2040) – sistemas complexos, multiagente, multimodais. A educação precisará de formar arquitetos de ecossistemas cognitivos, capazes de orientar sistemas técnicos segundo valores humanos, culturais e comunitários.
Esta transformação pode ser enriquecida se a enquadrarmos numa genealogia filosófica mais longa. A evolução da IA não é apenas técnica, reflete debates antigos na filosofia alemã sobre racionalidade, cognição e existência. A fase inicial da IA Simbólica (1980–2010), assente em regras explícitas e manipulação lógica, encontra raízes diretas em Leibniz, que já no século XVII imaginava uma characteristica universalis e um calculus ratiocinator capazes de formalizar o pensamento humano. Também Kant, ao enfatizar o papel das estruturas da razão e das categorias do entendimento, antecipou a crença de que a inteligência poderia ser formalizada e descrita simbolicamente. No entanto, esta visão foi contestada por correntes influenciadas pela fenomenologia e pela hermenêutica, sobretudo Heidegger, que denunciaram os limites de um modelo puramente calculativo da mente, defendendo que a compreensão humana do mundo é pré-reflexiva, tácita e situada, algo que o simbolismo não captura.
A transição para a IA Neural (2010–2020), centrada em redes neurais profundas e aprendizagem a partir de dados, aproxima-se mais de uma epistemologia empírica, ecoando ideias de Hume e Locke: o conhecimento como resultado da experiência acumulada. Esta abordagem abandona regras explícitas e decomposições formais, substituindo-as por abstrações estatísticas extraídas de grandes volumes de dados. Mas, também aqui, a tradição filosófica alemã oferece uma crítica pertinente. Ao não possuir entendimento, intencionalidade ou consciência, este modelo permanece preso ao domínio do cálculo, incapaz de atingir aquilo que Kant chamaria de “razão prática” ou “juízo”.
Olhando para o futuro, as projeções do European Innovation Council antecipam fases ainda mais desafiantes (figura 1): a IA Cognitiva (2030), a IA Física (2035) e a IA Autónoma (2040). Estas etapas reabrem debates clássicos da filosofia alemã. A crítica de Heidegger à tecnologia como força que molda o nosso “estar-no-mundo” é especialmente relevante: ele distingue entre pensamento calculativo e pensamento meditativo, alertando que o primeiro, que é o da IA, jamais poderá substituir a compreensão humana da existência. Por outro lado, autores herdeiros da dialética hegeliana levantam uma questão provocadora: se entidades artificiais viessem a aproximar-se de capacidades humanas, qual deveria ser o seu estatuto moral e político? Teríamos a responsabilidade de integrá-las na esfera ética, tal como Hegel defende para os sujeitos históricos? Este debate não é ficção científica; é preparação conceptual para lidar com sistemas que estão a adquirir autonomia operacional crescente.
É neste quadro que a educação se torna ainda mais vital. Sem uma educação transformadora, capaz de dialogar com estas tradições filosóficas e com os avanços tecnológicos, a sociedade não acompanhará o ritmo da IA. A tecnologia avançará, a sociedade, não. Arriscamo-nos a perder soberania, amplificar desigualdades, reforçar colonialismos digitais e apagar línguas, memórias, entre outros. A educação é a infraestrutura crítica da transformação digital. Sem ela, a tecnologia não emancipa, captura.
Mas é precisamente aqui que a educação revela o seu papel, que considero insubstituível. É ela que pode oferecer a literacia crítica necessária para compreender o funcionamento da IA, as suas limitações e de que forma reforça desigualdades já existentes, como a inclusão e a equidade. É também a educação que permite desenvolver uma literacia ecológica e territorial, capaz de relacionar dados, tecnologias e contextos concretos; a cultura digital precisa de ser situada, histórica e enraizada. Além disso, só a educação pode promover uma literacia intercultural que ajude a mediar mundos, diálogos e cosmologias, algo que nenhum algoritmo, por mais avançado que seja, consegue realizar. Da mesma forma, é à educação que cabe preparar profissionais para supervisionar sistemas de IA cada vez mais complexos; se caminhamos para modelos cognitivos em 2030, precisamos de formar pessoas capazes de auditar, questionar e orientar estes sistemas. Finalmente, a educação é também responsável por desenvolver capacidades de governança digital, fundamentais para negociar com empresas, Estados, plataformas e para proteger a soberania de dados das comunidades.
Segundo Luís Borges Gouveia (Professor Catedrático da Universidade Fernando Pessoa) numa apresentação realizada numa Escola de Outono de um Programa Doutoral da Universidade de Aveiro (Portugal), a proposta de ser “arquiteto consciente” ecoa a necessidade Heideggeriana (o filósofo Martin Heidegger, Ser e Tempo – 1927) “de passar de um modo de ser passivo e inautêntico para uma compreensão ativa do estar-no-mundo, que agora é coabitado pela IA.” A ideia de que já habitamos a IA é atual e, mais ainda, inconsciente. Por isso, a educação deve oferecer não apenas competências técnicas, mas capacidades críticas, ecológicas, interculturais, supervisoras e de governança, competências que só uma abordagem humanista e filosófica pode consolidar. Esta dimensão torna-se ainda mais evidente com a leitura de Heidegger, reinterpretada por Luís Borges Gouveia, na sua proposta de que precisamos de formar “arquitetos conscientes” da IA, não utilizadores passivos, mas sujeitos capazes de compreender que a IA já não é algo que vemos, mas o meio através do qual vemos, pensamos e agimos.
A tecnologia altera cenários. Quem transforma é a educação.
Nota: Este texto reflexivo foi escrito após a participação na Digital Learning Week da UNESCO (Setembro de 2025) e na 28º Conferência Europeia de Inteligência Artificial (Outubro de 2025). Reconheço o uso do ChatGPT e do Gemini como apoio à redação e reformulação textual de conteúdos neste documento. A utilização destes modelos de IA Generativa visou exclusivamente complementar o trabalho autoral, não substituindo, em nenhum momento, a minha responsabilidade intelectual pelas decisões científicas e conceptuais tomadas ao longo da escrita do texto.
Referências
Morris, W. E., & Brown, C. R. (2023). David Hume. In E. N. Zalta & U. Nodelman (Eds.), The Stanford Encyclopedia of Philosophy (Winter 202). Metaphysics Research Lab, Stanford University. https://plato.stanford.edu/entries/hume/
Peckhaus, V. (2024). Leibniz’s Influence on 19th Century Logic. In E. N. Zalta & U. Nodelman (Eds.), Stanford Encyclopedia of Philosophy (Spring 202). Metaphysics Research Lab, Stanford University. https://plato.stanford.edu/entries/leibniz-logic-influence/
Plevrakis, E. (2024). Can AI be a subject like us? A Hegelian speculative-philosophical approach. Discover Computing, 27(1), 46. https://doi.org/10.1007/s10791-024-09472-3
Poel, I. van de. (2020). Three philosophical perspectives on the relation between technology and society, and how they affect the current debate about artificial intelligence. Human Affairs, 30(4), 499–511. https://doi.org/10.1515/humaff-2020-0042
Redding, P. (2025). Georg Wilhelm Friedrich Hegel. In E. N. Zalta & U. Nodelman (Eds.), The Stanford Encyclopedia of Philosophy (Fall 2025). Metaphysics Research Lab, Stanford University. https://plato.stanford.edu/entries/hegel/
Rohlf, M. (2024). Immanuel Kant. In E. N. Zalta & U. Nodelman (Eds.), Stanford Encyclopedia of Philosophy (Fall 2024). Metaphysics Research Lab, Stanford University. https://plato.stanford.edu/entries/kant/
Uzgalis, W. (2024). John Locke. In E. N. Zalta & U. Nodelman (Eds.), The Stanford Encyclopedia of Philosophy (Winter 202). Metaphysics Research Lab, Stanford University. https://plato.stanford.edu/entries/locke/