EN EL MUNDO DE LAS LETRAS, LA PALABRA, LAS IDEAS Y LOS IDEALES
REVISTA LATINOAMERICANA DE ENSAYO FUNDADA EN SANTIAGO DE CHILE EN 1997 | AÑO XXIX
PORTADA | PUBLICAR EN ESTE SITIO | AUTOR@S | ARCHIVO GENERAL | CONTACTO | ACERCA DE | ESTADISTICAS | HACER UN APORTE

VER EXTRACTOS DE TODOS LOS ARTICULOS PUBLICADOS A LA FECHA


Para lo que no sirven las inteligencias artificiales en la academia

por Juan Granados
Artículo publicado el 28/02/2026

Artículo en coautoría con
Karlo Gutiérrez Terán
Enrique Jesús Rodríguez Bárcenas

 

Resumen
Este trabajo presenta una reflexión que analiza las limitaciones de las IA generativas (como Copilot y Gemini) en la academia, mediante experimentos prácticos de redacción y catalogación. Se quiere mostrar que estas herramientas son útiles para organizar ideas o corregir estilo, pero carecen de fiabilidad. Un hallazgo crítico es la propensión de la IA a inventar autores, títulos y citas textuales inexistentes. Tampoco distingue entre paráfrasis y texto literal. La reflexión sigue al riesgo de la simulación educativa, en la que el estudiante delega su pensamiento al algoritmo, cosa que para combatirse se propone revalorar la función del docente como maestro, como modelo ético y mediador del conocimiento. Se trata también del retorno a prácticas como la oralidad y la escritura manuscrita para preservar el pensamiento crítico y evitar así la atrofia intelectual, la pérdida del pensamiento crítico, frente a la complacencia fanática promovida por la tecnología digital.

Palabras clave: Inteligencia Artificial, Investigación académica, Pensamiento crítico, Ética educativa, Simulación

 

Introducción
Lo que proponemos es un texto raro porque es anecdótico, narrativo, más o menos académico, tendiente a lo filosófico.
Agradecemos, de nuevo, por recibirnos al Instituto Peruano de Inteligencia Artificial y Ciudadanía digital, en su ciclo de conferencias del año 2025.

Para contextualizar quisiera recordar, porque ya lo hemos dicho un par de veces, que nosotros, los tres, trabajamos en la Facultad de Artes, de la Universidad Autónoma de Querétaro (UAQ), en México. Enrique Rodríguez y, un servidor, Juan Granados nos formamos, para la licenciatura, en filosofía, aunque hemos hecho un camino un tanto híbrido en las artes. Convivimos con artistas visuales, con bailarines, con músicos y con actores. En la Facultad de Artes hay otros programas educativos, hay diseño gráfico, docencia de las artes y varias maestrías y un par de doctorados. Con Karlo Gutiérrez hemos trabajado justamente lo que nos ha suscitado estas reflexiones. Karlo no es filósofo. Él es artista visual, licenciado en artes visuales, maestro en artes, pintor, fotógrafo, grafitero, también, músico, y algo revolucionario. Actualmente está estudiando el Doctorado en Artes y Humanidades acá mismo en la Facultad de Artes de la UAQ. Él también es, ya lo hemos dicho, parte de la Academia de la Facultad de Artes.

También quisiéramos recordar que, si no me equivoco, Enrique, Karlo y Juan, la primera vez que tuvimos oportunidad de participar acá, en este ciclo de conferencias, platicamos sobre el Repositorio digital de la cultura artística de nuestra Facultad, a saber, el ReDCA, que surgió alrededor del 2017 con la intención, en principio, de crear un almacén electrónico para los productos artísticos de la Facultad. Inicialmente nos concentramos en las artes visuales, en los productos de la visualidad, como la pintura y la fotografía. Admitimos obras tanto de origen digital como análogo. A estas las tuvimos que someter a un proceso de digitalización. A la fecha, pues hemos seguido creciendo, hemos digitalizado toda la documentación que se tiene de Ballet clásico Querétaro, una compañía aún viva de dicha área. La página es www.red.uaq.mx

Y lo traemos a cuento, precisamente, porque lo que queremos reflexionar tiene que ver con la academia y con la investigación. Lo que vamos a plantear resultará, si no muy polémico, sí algo controvertido, ya que, notamos, ya a la fecha hay, en general, una muy buena recepción de las IA generativas. Estas que comenzaron con ChatGPT y se ha seguido con Gemini, You y con algunas otras. Se están recibiendo bien, se les está viendo con buenos ojos, pero en las pruebas que hemos hecho nosotros nos hemos percatado de que no son todavía muy confiables, como lo vamos a exponer enseguida. Por eso hemos titulado a este trabajo (y exposición): “Para lo que no sirven las inteligencias artificiales en la academia”.

Por último, como parte de este contexto, quisiéramos comentar que justamente en octubre, 21 y 22, de 2025, se llevó a cabo en la Universidad Autónoma de Querétaro el 15to Congreso Internacional de Artes y Humanidades. En esta ocasión el tema fue el de las interpretaciones transversales del arte contemporáneo. Se tuvo participación de diferentes ponentes y conferencistas de varias partes de México y del mundo. Hubo algunos ponentes argentinos. Traemos a cuento con esto por su relevancia contextual. Participó el Dr. Rubén Buren, de España, con una conferencia que tituló, “El arte como traducción radical, transversalidades, fisuras y pasajes en el mundo contemporáneo”. Lo interesante de su propuesta era la de involucrar a la IA generativa en la productividad artística. Incluso nos propuso como término, o nuevo concepto, para englobar o calificar y clasificar esta actividad el de ovrónico o producción ovrónica, como si se tratara de encubar un huevo con apoyo de la IA.

Esto fue el 22 de octubre. Después, ese mismo día, en la mesa de trabajo que siguió a la conferencia, participó nuestro colega y amigo, el Dr. Pablo Cabral, quien es, también profesor de la Facultad de Artes, de la Licenciatura en Actuación y de algunas otras, acá en la misma Facultad de Artes de la UAQ. Él es, de origen argentino, por cierto. Pablo Cabral presentó justamente una ponencia que tituló “Metodología de la investigación en las artes con las inteligencias artificiales como herramienta de apoyo para estudiantes de licenciatura”. Fue muy interesante, porque justo fue una propuesta muy práctica. Nos puso un caso y eligió dos IA. A una le planteó una pregunta genérica relativa a una receta para un estudiante que acá puede estar viviendo solo, porque no es la ciudad la Universidad, la suya de origen. En la otra hizo lo mismo, pero con especificaciones o precisiones, para incrementar la confiabilidad de la respuesta.

Con estos preliminares, de que somos de la Facultad de Artes, tenemos el proyecto del ReDCA, que nos ha llevado a trabajar en la digitalización y en la catalogación de las obras artísticas desde las Humanidades Digitales (entendidas como el cruce entre las diferentes tecnologías electrónicas y las distintas humanidades para registrar y evaluar fenómenos culturales); de que recientemente se llevó a cabo el congreso internacional de artes y humanidades, ya estamos listos para plantear esta reflexión de título, “Para lo que no sirven las inteligencias artificiales en la academia”.

¿Para lo que no sirven las inteligencias artificiales generativas en la Academia?

Las IA generativas han tenido una buena recepción en la academia de la Facultad de Artes, de la Universidad Autónoma de Querétaro, en relación con la productividad académica o la producción de escritos académicos, etcétera. Por este motivo, principalmente, nos propusimos un experimento. Ya se verá qué cosas quisimos poner a prueba. Las reflexiones que se suscitaron al respecto son, nos parece, de interés.

Se estableció una comunicación con un par de IA para que estas contestaran preguntas relacionadas con el desarrollo de un texto académico, destinado a un foro, a un congreso, a un coloquio, a un simposio o, también, a una publicación periódica o a algún capítulo de libro. Las dos IA con las que se probó fueron IA Copilot y la IA Gemini. Primeramente se les hizo la siguiente pregunta: “¿En qué puedo apoyarme de una IA para desarrollar un texto académico?”. Copilot contestó que podría ser útil para la búsqueda de información, lo cual no la diferenciaría demasiado de los buscadores (como Google) a los cuales tenemos acceso. Hay, por ahí, alguna nota en la red que dice que las IA no son buscadores o no solo son buscadores y que bueno, usarla solo para eso pueda reducir demasiado sus capacidades o sus posibilidades. Según Copilot su búsqueda puede ser confiable, cabe destacar que en la versión de escritorio, en la ventana de la aplicación, en la parte inferior, dice que “Es posible que Copilot cometa errores”. Hay una contradicción. Nos dice a la hora de usarla como buscador de información que los resultados de su búsqueda pueden ser confiables y, a la vez también, nos dice que puede cometer errores, o sea, que pueden no ser confiables sus resultados. Por otro lado, Gemini menciona que la IA no debe sustituir la investigación en la escritura, sino que deberá ser un apoyo en la organización del texto, así como de las ideas y como editor del lenguaje académico. Y es aquí donde hicimos la mayor prueba.

Karlo y yo íbamos a participar en un par de foros. El primero estuvo dedicado a la catalogación del patrimonio cultural universitario, en la Universidad Autónoma de Querétaro. Como se inició un proceso de catalogación al interior de la universidad, nos pidieron que compartiéramos nuestra experiencia con relación al, justamente, repositorio (ReDCA). El segundo lo organizó el Centro Queretano de la Imagen, que nos invitó a participar. En ese caso, en particular, lo que propusimos fue el uso de una herramienta electrónica que se llama Tropy. No es una IA, pero sí es una herramienta interesante que, además, conecta en su origen, porque son los mismos desarrolladores, con Zotero y Omeka. Sirve para analizar, así, en el sentido amplio de analizar, esto es, de separar, distinguir, etcétera, las imágenes. Como en la Facultad de Artes de la UAQ se tiene un acervo fotográfico enorme, que fue donado hace algunos años, pensamos en que Tropy sería de utilidad para analizar las imágenes digitalizadas del acervo fotográfico. Como ejemplo usamos algunas fotografías de Karlo. Y como queríamos dar cuenta de ello, de nuestra experiencia de catalogación y de las bondades de Tropy, aprovechamos la oportunidad para utilizar las IA y ponerlas a prueba.

Después de la aclaración, recordemos que Copilot parece contradecirse cuando dice que la información es fiable, pero dice que puede equivocarse; y que Gemini dice que no debería sustituir al investigador en la escritura, sino que deberá ser un apoyo para la organización del texto, así como de las ideas y como editor de lenguaje académico. En la parte inferior del cuadro de diálogo de esta IA dice a la letra que «Gémini puede cometer errores, así que verifica sus respuestas». Con esto reafirma lo que indica Copilot, la contradicción, pero, a la vez, la coherencia propia de esta IA. Asimismo, confirma que siempre será necesaria la intervención del investigador, que la creatividad y la innovación son humanas.

Toda la información que aporten las IA debe verificarse con las fuentes originales y citarlas correctamente. Esto, justamente, nos pasó con lo que hicimos en relación con las ponencias que comentábamos. Esto de la verificación sí lo advierte Copilot. Por su parte, Gémini menciona algo a lo que ella misma denomina “regla de oro” y es la siguiente: “La IA propone, pero tú dispones. Tú eres el autor intelectual. La IA es solo tu procesador de textos avanzado”. Lo cual vuelve a darnos un indicio de que no es tan fiable la información y que sí se requiere que la intervención humana. Además, es de los seres humanos la intención de hacer, de usar, de producir, etc. Esa intención no se la podemos reconocer a la IA, ya que funciona a partir de un prompt o instrucción. En fin, la IA puede ayudar a organizar las ideas para desarrollar una investigación. La mayoría de las veces permite desarrollar una estructura que sí da lugar a que hace pensar que pueda ser confiable. No obstante, es importante mencionar que la IA tiene la capacidad de producir, por no decir, inventar, información similar. La IA organiza, esquematiza, corrige, perfecciona el estilo. Quizás.

Cuando surgió el Word, algún profesor entregó algún trabajo para publicar y los editores se lo devolvieron porque el escrito contenía muchas faltas de gramática, de ortografía, etc. Este profesor, escandalizado, se defendió diciendo que no entendía la razón, si había aplicado aquella función de corrección ortográfica global que tenía el Word, para no hacerlo una por una. Confió en el resultado final y ya no hizo la revisión última, así que cuando le devuelven las observaciones, destacan todas estas fallas producidas por el mismo procesador de textos dicho, en sus inicios. Creemos que tenemos una situación muy semejante a lo que a lo que pasaba en aquel entonces. A pesar de que tengamos la oportunidad de automatizar algún proceso, como el de la revisión ortográfica, en aquel entonces y ahora, no está de más (y ni siquiera tendríamos que decirlo de esa manera tan eufemística) que se revise con ojos e inteligencia humanos.

La cosa es que la IA revisa el estilo. Pero esto es también un problema. Lo hemos visto, por ejemplo, con las tesis de nuestros estudiantes. Acá en la Universidad Autónoma de Querétaro tenemos la consigna de que las tesis que se van a presentar y defender han de pasar por un revisor de coincidencias y paralelismos o de antiplagio, como se conoce. El más conocido y útil de ellos es, a la fecha, el Turnitin.  En la Facultad de Artes se ha propuesto que el porcentaje máximo admisible para esas coincidencias con documentos en la red sea el del 15%. Así, si ya tiene 16%, el trabajo se devolverá para su corrección. También tenemos la función en el mismo Turnitin de que se puede llegar a identificar si la tesis fue escrita con IA. Lo interesante de esto está en que, justamente, aunque la tesis haya sido hecha humanamente, con trabajo del estudiante, con el acompañamiento respectivo, esto es, con la asesoría del director, si después se le pide a una IA que haga una corrección, una revisión de ortográfica o de estilo, el Turnitin va a detectar la intervención de esa IA y la va a señalar como si la tesis se hubiera hecho en su totalidad de esa manera. También sucede, empero, lo contrario. A veces este software sugiere que quizás haya allí alguna intervención o utilización de IA, pero como no puede asegurarla por razones diversas, como ha ocurrido, no se puede hacer nada.

Al experimentar con las IA, teníamos también en mente esta situación con las tesis. Cuando le hicimos las preguntas para este texto la propia IA Copilot nos dice que “siempre conviene revisar los detalles en los manuales oficiales”. Es un guiño. Es como si nos dijera, «Sí, sí, puedo ayudarte, lo hago, ahí está, pero tú tienes que revisarlo, tú tienes que (re)hacerlo”. Al ser humano toca el trabajo de filigrana. La IA no es confiable para la redacción académica. Nos puede apoyar en algunos puntos, pero lo que son las citas, nos dejó mucho que desear con los experimentos que hicimos. Pedimos referencias y citas. La IA nos las dio. Sin embargo, al nosotros buscarlas, no las encontramos.

En esta serie de experimentos que hemos venido haciendo con las IA, especialmente con estas que hemos mencionado, la Copilot y la Gemini, también les preguntamos que por qué no se debería usar la IA para hacer investigaciones y trabajos académicos. Copilot respondió que “No es que no debas usar IA en investigaciones académicas, sino que hay riesgos y limitaciones que hacen que no sea recomendable usarla como única fuente”. Esta respuesta nos hizo pensar en el conflicto que tenemos, en particular, con la enciclopedia en línea que todos conocemos, Wikipedia. Todos tenemos acceso a ella. Fácil y rápidamente encontramos datos, información, pero hasta allí llega su utilidad. Es decir, nos da pistas, pero lo que viene después ya no lo puede aportar la enciclopedia. Y lo mismo parece decirnos la IA al respecto. Nos aportará datos, nos servirá para orientar, nos dará alguna pista, pero aún hay que corroborar todo eso. En el caso de Gemini, su respuesta fue: “No es que no debas usarla en absoluto, sino que no debes delegar en ella la responsabilidad de la investigación”. Ante tales respuestas no podemos no pensar en que se requiere no solo de un curso de metodología de la investigación, sino también uno de ética de la investigación. En este caso se trata de promover e insistir mucho en la responsabilidad de la investigación, porque quien va a responder de ella es quien la presente como propia.

“No se debe usar una IA”, sigue Gemini, “como si fuera una enciclopedia infalible”. Lo sabemos. Recuérdense aquellas enciclopedias enormes que llenaban los libreros y que todavía algunos llegan a tener en sus bibliotecas. Estas crecían en número de volúmenes, porque aumentaba el conocimiento o aumentaban los datos. Incluso, a veces, aumentaban en cantidad se corregían o precisaban esos datos. Justo esto muestra su falibilidad. No eran infalibles y las IA no son, pues, enciclopedias infalibles. Si asimismo eso caemos en el riesgo de el error arruine, como ha pasado en muchos casos, nuestros trabajos académicos. Las IA consultadas nos advierten, entonces y también, que no las usemos de esa manera.

Vale la pena distinguir entre datos o información y conocimiento. Las enciclopedias impresas, la enciclopedia electrónica mencionada, incluso las IA, si las usamos como enciclopedias, nos aportan información, no conocimiento. Este es el siguiente paso. Y es un paso humano. El conocimiento es conocimiento humano, que, por cierto, también es falible, pero que se obtiene progresivamente, discurriendo por caminos a veces tortuosos, como los de la experiencia que llevan a ser experto o a ser sabio.

Cuestionar a las mismas IA generativas en relación con su rol en la investigación y la redacción de trabajos de investigación, nos ha devuelto una serie de respuestas que nos mueven, efectivamente, a insistir en la importancia de los cursos de metodología y de ética de la investigación. Pero sigamos.

Y experimentamos, además de preguntar. El experimento, como comentábamos, tuvo que ver con las participaciones o ponencias que íbamos a presentar en los eventos de la Universidad Autónoma de Querétaro y del Centro Queretano de la Imagen; una sobre la catalogación del patrimonio cultural universitario y otra como parte de las actividades de la cátedra Germán Patiño, dedicada a la fotografía; la primera sobre la catalogación en el ReDCA y la segunda sobre el uso de Tropy para el análisis de imágenes electrónicas.

Para el caso del primero, el del congreso relacionado con la catalogación, pues ya les adelantábamos que en el ReDCA, efectivamente, tenemos que catalogar objetos digitales, resultado, muchas veces, de la digitalización de obras de artes. Para llevar a cabo dicha catalogación optamos muy pronto por los metadatos Dublin Core, por varias razones, a saber, porque ya estaban estandarizados y entre los beneficios que obteníamos de esos metadatos, estaban, por un lado, el que el ReDCA pudiera ser cosechados por meta-repositorios, y, por el otro, el que se pudieran citar, como fuentes de consulta, las imágenes incluidas y exhibidas en nuestro repositorio. Quienes trabajamos en las artes sabemos, y es una discusión metodológica y epistemológica interesante, que las imágenes visuales son también documentos de investigación y objetos que aportan información y, por supuesto mueven al conocimiento. Lo que queríamos en ese entonces era presentar nuestra experiencia de catalogación con los metadatos Dublin Core en aquel congreso y lo que hicimos fue lo siguiente. Utilizamos un par de IA. No empezamos desde la idea de preguntarle o pedirle a la IA generativa que nos produjera un texto académico relacionado con la catalogación, etc., sino que, más bien, porque Karlo y yo hemos estado trabajando muchísimo en el ReDCA, lo que hicimos fue tratar de vaciar lo que sabíamos por experiencia al respecto a partir de un ejercicio de pregunta-respuesta, una especie de entrevista. Grabamos en audio este ejercicio. Enseguida solicitamos a una IA (TrascribeMe) que lo transcribiera. Hasta ahí parecía todo bien. Lo que vino, fue su respectiva corrección. Y ahora sí, sobre ese texto, el de la transcripción del audio que hicimos, le pedimos a la IA Gemini que nos apoyara con la organización de lo expuesto durante la entrevista, porque se notaba su origen oral y cierta desorganización. Para reorganizar el texto le pedimos, asimismo, a la IA que nos sugiriera algunas citas y referencias que nos permitieran conectar con documentos académicos publicados, sobre todo en línea de lo que nosotros asegurábamos que formaba parte de nuestra experiencia con la catalogación de objetos digitales. Obtuvimos un texto agradable, legible y organizado, de unas tres cuartillas. Pensamos que con esa redacción preliminar sólo tendríamos que corroborar las fuentes y ya. Ya había organizado la IA el aporte. Exageramos la ingenuidad, para explicarnos. Y, pues no. Resultó que había que revisarlo todo. Prácticamente lo rehicimos a la hora de hacer la revisión.

Ya lo adelantábamos también. El asunto tuvo que ver con las citas textuales. Ya nos había advertido Copilot al respecto, cuando le preguntamos sobre eso. Las IA no tienen acceso a todos los libros ni a todos los documentos. Copilot lo advierte: «Puedo ayudarte con citas textuales, pero hay una limitación importante. No tengo acceso directo al contenido completo de libros protegidos por derechos de autor, así que no puedo garantizarte citas exactas con ningún número de página». Y esta es una de las limitaciones más importantes que se deben conocer de las IA generativas para fines académicos. Gemini también advierte que “No puede garantizar citas textuales exactas con número de página preciso de libros físicos”.

Las IA no saben distinguir, y nosotros descubrimos esto, entre una cita textual y una cita parafraseada. Parece que con las comillas refleja las citas como textuales, cuando no es así. Las citas textuales que nos había sugerido la IA no venían en ninguna de las fuentes que nos recomendó. En esto también hay que formar a los jóvenes. No pueden estar esperanzados en que la IA les va a ayudar a resolver sus investigaciones. La IA que usamos se equivocó. Inducía a un error. Fue de lo que nos dimos cuenta, porque citaba un artículo de investigación cualquiera, el cual es público, de acceso abierto. Cuando buscamos la parte de la cita textual, en ninguna parte del documento la encontramos. Tuvimos que revisar todo el documento. Nos encontramos que, en todos los casos de supuestas citas textuales, todas eran inventadas.

Uno puede pensar que no hay problema si no tiene acceso a libros protegidos, ya que hay muchos artículos de acceso abierto y, por ende, hay citas de citas, como cuando nosotros citamos diciendo que alguien dijo que otro dijo. Pero no. Inventó. Ya el Dr. Pablo Cabral nos adelantaba que parece que las IA están programadas para satisfacer nuestros deseos, nuestros requerimientos. O sea, si le pedimos algo nos lo va a dar. No importa si para eso tiene que inventárselo o crearlo de cero, de la nada. La cosa es que nos pasó eso. A la hora de corroborar las citas, descubrimos que no existían y no existían los autores. Sólo a Borges le habíamos aceptado inventar autores. Además, se nota (y no sabemos exactamente cómo, pero así es) cuando el texto ha sido obtenido de una IA generativa. También se nota cuando una melodía es producto de IA.

Pensamos, por lo dicho, que con una IA no se puede hacer un trabajo académico, como los que se espera, de investigación, porque como investigadores se nos pide aportar al conocimiento, y si fuera el caso de que la IA hiciera eso, ya no tendríamos trabajo como investigadores. Si fuera ese el punto y de lo que se trata es de obtener un trabajo publicable, se entremezclan cuestiones de orden epistemológico, metodológico, ético, que chocan entre sí. Esto en un buen sentido, porque, visto con realismo, incluso con pesimismo, cabe preguntarse, ¿quién no ve que no sea posible la simulación de la investigación? Más aún, la hay. Si nos sinceramos, hemos de aceptarlo. Y, bueno, la habrá más con las IA generativas.

Acá, en la UAQ, tuvimos la oportunidad de tomar un curso sobre los derechos de autor y las IA. La cosa era que muchas preguntas que se hicieron, en especial las hechas por aquellos que se dedican a la música, porque les ha afectado muchísimo la producción de melodías con IA, iban en esta línea de la simulación y de cómo contrarrestar las afectaciones al gremio. No quiere decirse que no se usen. Los artistas usan, por ejemplo, herramientas y no decimos que el pincel o que el violín sean los autores intelectuales de las piezas o las obras que surgen de su uso. Si al final el prompt o la instrucción es mía, quizás pase lo mismo con las IA.

Otro asunto es el del estilo y la uniformidad académica. Un maestro nuestro se quejaba de la reciente falta de estilo reciente, resultado, precisamente, de la exigencia positivista de las universidades para estandarizar todos los textos. Nuestro maestro, decía, al respecto, que esa uniformidad del estilo se nota, sobre todo, cuando lees un trabajo académico de una persona, luego lees el de alguien más y parece que estás leyendo lo mismo o lo mismo o de la misma manera, porque pues todos tienen que escribirse de la misma forma. Incluso hablaba de la muerte del estilo. Ese murió, pues, hace mucho. Estamos siendo nostálgicos de algo que vimos hace décadas. El estilo personal del investigador es, si bien nos va, raro o escaso. Lo que podemos ver hoy es la uniformidad de los escritos. Y, precisamente, la IA puede hacer esto perfectamente. Con la IA parece ser mucho más sencillo que todos los trabajos académicos tengan la misma forma. Ese mismo profesor, que era uno de filosofía, nos contaba que con el uso de las IA había implementado, lo que nunca, a saber, exámenes y trabajos escritos a manos en el aula. Si no, decía, los estudiantes, en especial los de los primeros semestres, usarían las IA para hacer los escritos encargados y así entregarlos como propios. Con estas medidas evitó la tentación y promovió el propio estilo de los estudiantes. Incluso, cabe pensar en ello, desde la grafología se notan, en el modo como escribimos, aspectos de nuestra personalidad y esto nos lo hemos perdido con los escritos a máquina o a computadora. Imaginemos lo que se pierde, entonces, con las IA. Y lo que nos perdemos cuando no leemos.

¿Para qué sirven los docentes en época de IA?
Las IA no van a sustituir, quisiéramos, la investigación humana o, al menos, no tendrían por qué hacerlo. A veces parece, empero, que ya la sustituyeron de tal manera que lo notamos en el aula, como docentes. Y esto es así porque el problema es más amplio. Nuestro sistema educativo ha fracasado. Las IA es la evidencia. El Adobe Acrobat, últimamente, a la hora de abrir un documento PDF y el documento es un escrito de algunas páginas, aparece la sugerencia de su IA de resumir dicho documento, aunque a veces sea de muy pocas páginas. Lo que viene a evidenciar la IA es, pues, que no leemos ni nos leemos entre colegas. Por eso hay trabajos hechos con ellas, especialmente artículos científicos. Tampoco leemos a nuestros estudiantes, por eso llegan a más de la mitad de la carrera sin haber aprendido a escribir, sin haber aprendido a hacer una reseña y muchas otras cosas. La IA ha entrado bastante en una maquinaria bastante bien aceitada, la del sistema educativo hasta nivel universitario, en el que todo es una simulación. Los estudiantes lo perciben y lo entienden así. “El profesor no me lee, ¿para qué me esfuerzo, para qué me desgasto?”, se preguntan. Se esfuerzan con aquel que sí está detrás de su espalda, viendo lo que hacen, como el profesor de pintura, y simulan otras operaciones.

Lo que quiere decir es que hay que ver hasta dónde podemos usar este instrumento, herramienta, máquina, aparato, pero lo otro que hay que ver es para qué queremos a los maestros en la época de las IA. Con nuestro experimento aprendimos algo y es ahora lo que nos da oportunidad de platicar esto. No le vamos a dejar a la IA que nos haga los trabajos, cosa que no hicimos. En esta línea, ¿cuál sería la función de los profesores? ¿Son necesarios los profesores ahora que parece todo estar en internet? ¿Ahora que tenemos máquinas que simulan respuestas de un ser que aprende y qué conoce? ¿Es la información lo mismo que el conocimiento? Hoy nuestros estudiantes tienen acceso a todas las respuestas, pero a menudo carecen de las preguntas correctas o bien delegan la operación de investigar, discriminar información, analizarla y estructurar una respuesta a un algoritmo. ¿Enseñar sigue siendo profesión necesaria?

Las tecnologías no han sido herramientas neutras, tienen efectos profundos en las conductas y prácticas humanas. La invención del telescopio permitió ver estrellas, pero también permitió desplazar al ser humano del centro del universo. Walter Benjamin demostró que el cine y la fotografía destruyeron el aura del arte clásico, democratizando su consumo, pero alterando nuestra percepción. En el aula sucedió lo mismo: el pizarrón, el libro de texto y el lápiz estructuraron la mente bajo la lógica lineal de la lectoescritura, base de las teorías de Piaget y Vygotsky. Sin embargo, hoy enfrentamos una ruptura respecto al esquema informático previo. Si Giovanni Sartori temía al homo videns (la era de la imagen) y Rudolf Arnheim abogaba por una alfabetización visual, hoy la IA invita a una reflexión más profunda en el contexto de la información y cómo los algoritmos median el conocimiento de la realidad. Siguiendo a Michel Foucault, si la tecnología es un medio que moldea la subjetividad, la IA amenaza con modelar un sujeto pasivo que delega su pensamiento a una maquina y los algoritmos que operan en ella. Es aquí donde la pregunta se vuelve urgente: en un mundo donde se le delegan operaciones intelectuales a la máquina ¿para qué sirve el profesor?

Las TIC y ahora su conjugación con la IA nos dan acceso instantáneo al dato. Pero como advertía Umberto Eco, la acumulación de datos no es conocimiento. La IA generativa (ChatGPT, etc.) puede alucinar, sesgar o inventar información con total elocuencia. Así, el profesor es indispensable para enseñar a filtrar y verificar la verdad en un mar de ruido. A pesar de que la IA afirma que puede ayudar a buscar información confiable, existe una contradicción inherente, ya que la misma aplicación advierte que «es posible que Copilot cometa errores». La IA inventa citas. Al pedir referencias textuales, la IA genera comillas y texto que no existen en los libros impresos o digitales.

El maestro debe ahora enfatizar y puntualizar en el método, en cómo se conoce y cómo se valida lo que se conoce, en ese sentido el planteamiento de Umbert Eco es vital porque la IA, al tratar de complacer al usuario, fabrica fuentes falsas o parafrasea incorrectamente presentándolo como cita textual. Sin el docente-verificador, el alumno cae en la desinformación académica. Por tanto, el profesor deja de ser la enciclopedia (función obsoleta desde el Internet y los buscadores en línea) para convertirse en esa persona dentro del aula que asegura que el conocimiento, en realidad, lo sea. Insertando la duda, la estructura del conocimiento y su validez. El docente sirve para enseñar a verificar, a contrastar fuentes y a cuestionar la respuesta que la máquina escupe en segundos. Si la tecnología facilita el plagio o la respuesta fácil, el docente es quien enseña el valor del esfuerzo intelectual detrás del dato. Por otro lado, si Foucault tiene razón y la tecnología moldea la subjetividad, la IA corre el riesgo de modelar estudiantes estandarizados por algoritmos corporativos. Los algoritmos de las plataformas educativas suelen priorizar la eficiencia tecnócrata sobre la reflexión ética. Luego, el docente debe ser un intelectual transformativo, oponiéndose a la tecnocracia que despoja de sentido político y crítico a la educación.

La IA admite poseer una «falta de rigor científico» porque genera textos mediante patrones y no mediante comprensión. El uso de la IA conlleva una «Ausencia de originalidad», ya que no sustituye el razonamiento humano necesario para el análisis crítico. Usar IA sin declararlo plantea dudas sobre qué tanto del trabajo pertenece al investigador y qué tanto a la máquina. Si delegamos la escritura a la IA, cedemos el espacio del intelecto a la simpleza del procesamiento de datos. Por tanto, el docente tiene ahora que hackear el currículum oculto de la tecnología. Sirve para preguntar: ¿Quién programó esta IA? ¿Qué sesgos tiene? ¿A quién beneficia esta información? El docente tiene que ser es el garante de que la educación siga siendo un espacio para cuestionar la información y el conocimiento y no un entrenamiento para obedecer a máquinas inteligentes.

Finalmente, Piaget y Vygotsky enfatizaban la interacción social y el lenguaje como motores del aprendizaje. Una IA puede simular una conversación, pero no puede ofrecer la alteridad real. La personalización extrema de la IA puede encerrar al alumno en una burbuja donde siempre tiene la razón y nunca se frustra. Meirieu nos recuerda que educar es enfrentarse a la resistencia del otro. El docente sirve para crear el vínculo. Una IA no puede enfrentar a un estudiante con sinceridad. La IA procesa, el docente acoge. El profesor sirve para introducir la pausa, el debate cara a cara y la experiencia de convivir con lo diferente, algo que ningún algoritmo puede replicar. Educar es profundizar y crear vínculos complejos, resistiendo la inmediatez. La IA tiene «limitaciones en profundidad». No tiene la capacidad de discernir relaciones complejas entre textos ni de entrelazar referencias con la investigación en curso. La IA se fabrica a sí misma a medida del usuario. La IA «solo delimitará aquello que le preguntes y acoplará sus respuestas a concentrarse en cumplir con la petición». La IA es transaccional (cumple órdenes), mientras que el aprendizaje profundo requiere la conjunción y profundización que solo el ser humano (docente/alumno) puede realizar.

¿Para qué sirve el docente en la era de la IA? Retomando la catástrofe prevista por Sartori y la subjetividad de Foucault, podemos concluir que en la era de la IA, el docente sirve para que la humanidad no pierda su capacidad de pensar por sí misma. Si las herramientas anteriores (lápiz, libro) eran extensiones de nuestra mano o nuestra memoria, la IA pretende ser una extensión de nuestro juicio. Por tanto, el docente es más necesario que nunca, no para competir con la máquina en velocidad o memoria, sino para ejercer tres funciones insustituibles: enseñar a navegar el exceso de información sin naufragar en la mentira; evitar que la tecnología deshumanice la sociedad, recordando que la educación es un acto político; y sostener la mirada y el vínculo, recordando que aprender es un acto de libertad que requiere de otro ser humano para florecer. El docente ha de enseñar a hacer preguntas. El uso excesivo de la IA genera una problemática que consiste en que entre más se usa, menos se piensa, y menos de manera objetiva. El investigador o estudiante que depende de la IA pierde lentamente sus capacidades intelectuales. El docente sirve para evitar la atrofia intelectual, para exigir el rigor científico que los patrones algorítmicos no pueden ofrecer y para forzar al estudiante a pensar por sí mismo, evitando que ceda su intelecto a la comodidad de una respuesta automatizada.

La IA, en la educación, no es una herramienta neutra, sino una tecnología que transforma la percepción y las conductas humanas. Así como el telescopio desplazó al ser humano del centro del universo y la fotografía alteró el aura del arte, la IA rompe el esquema informativo basado en la lectoescritura lineal que estructuró la mente bajo teorías como las de Piaget y Vygotsky. Un punto crítico es la disociación cognitiva que se observa en los estudiantes. Los docentes identifican textos con una pulcritud artificial que no coincide con el léxico o la capacidad articulatoria oral del alumno. Ante esto, se propone un retorno a la oralidad y al contacto directo para fortalecer el pensamiento autónomo.  Hay que establecer cimientos teóricos sólidos antes de permitir el uso de la IA. El diagnóstico de estos cimientos solo es posible mediante la lectura directa del trabajo auténtico del estudiante. Podemos advertir el riesgo de un analfabetismo funcional que afecta tanto a alumnos como a docentes. La IA se presenta bajo una apariencia suave y flexible que oculta su potencial peligro, esto es, el de la homogeneización cultural y la pérdida del criterio propio. Hay que recuperar el sentido etimológico de la palabra crítica. Se tratará de la capacidad de seleccionar y elegir. El reto educativo actual no es solo fomentar un juicio crítico, sino rescatar la base estética y sensorial que permite al individuo forjar un criterio propio frente a la unidimensionalidad tecnológica.

Últimas reflexiones
Una primera última reflexión. Continuando con lo dicho, cabe aceptar que la IA generativa ha impactado, pues, en la educación superior. ¿Qué pasa con el pensamiento crítico, ese que se supone ha de promoverse, especialmente en los estudios superiores, esto es, los universitarios? De acuerdo con Óscar de la Borbolla vivimos en una era de desconfianza hacia las instituciones educativas y los títulos que otorgan. Esto genera una crisis de autoridad y de criterio. El conocimiento especializado es cuestionado por la multitud de opiniones y el encarcelamiento algorítmico. Las IA, lo mismo que los algoritmos de las redes sociales y otros softwares contribuyen, en esta línea de la reflexión del filósofo mexicano, a crear cámaras de eco que encierran a los usuarios en lo que ya creen. Esto elimina, se sigue, los matices y convierte, además, la polémica en un simple espectáculo, como pasa con la shitstorm en X, antes Twitter. Según el mismo Óscar de la Borbolla el pensamiento crítico nace de la duda y el enfrentamiento con lo distinto. Él lo sabe bien. Sus libros Filosofía para inconformes y la Rebeldía de pensar lo confirman. Sin embargo, la tecnología actual, toda la tecnología digital, promueve, y ya lo resentimos, un mundo complaciente que evita la disonancia cognitiva. Esto también lo constata este autor. Estar rodeado solo de opiniones que confirman las propias lleva al fanatismo y al estancamiento personal y social. Obviamente esto impide el diálogo y la argumentación. Ahora bien, ante este panorama, la mejor postura sería una intermedia, entre la tecnofilia y la tecnofobia. Para posicionarnos en esa postura hay que reconocer que las tecnologías no son neutras y condicionan nuestra perspectiva, como ya se dijo. Igualmente es posible resistir mediante el retorno a la oralidad, los libros o el uso de la IA solo para tareas organizativas (como la elaboración de fichas), manteniendo el proceso intelectual en manos humanas. Como ya se señalaba, también, el docente debe introducir la disonancia cognitiva para evitar que los estudiantes sean arrastrados por una ola de complacencia tecnológica y así, a la vez, no desarrollen el pensamiento crítico que tanto se pregona. Es decir, si seguimos por ese camino, podría advenirnos, como dijera hace más de diez años Mario Vargas Llosa, la situación de un suicidio cultural. Sin pensamiento crítico no hay cultura. Con las IA, y más tecnologías digitales, el pensamiento crítico se adormece por razón del encarcelamiento algorítmico y el fanatismo por lo que nos confirma. A la larga morirá. Y con él, la cultura. Y con ésta, la humanidad.

Una segunda última reflexión. Hay, pues, una relación entre el ser humano, la tecnología y el pensamiento crítico. Para plantear esto nos basamos en Francis Bacon. Los instrumentos técnicos no son, e insistimos en ello, simples herramientas neutrales. Definen la condición de civilización y poder entre las sociedades, como hizo notar Francis Bacon en su Novum Organum, en el que indicaba que tanto la mano como la inteligencia requieren de instrumentos y auxilios. De esto, Bacon infiere, con una metáfora inquietante, que el ser humano que posee una técnica (tecnología) se convierte en un dios para aquel que carece de ella, debido a los beneficios que puede prestar y a la disparidad de condiciones que genera. La tecnología es, pues, un instrumento de poder. La diferencia entre una sociedad civilizada y una bárbara no radica, en consecuencia, en el suelo o el cielo, sino en las tecnologías. En la actualidad esto se refleja en el uso de plataformas como Zoom, en la que los usuarios (entre ellos nosotros) rinden una suerte de pleitesía a los creadores de los recursos que posibilitan el diálogo global. A pesar de esta dependencia tecnológica, no se debe claudicar (o “doblar las manos”). Hay que recuperar la crítica, el pensamiento crítico. Pensar críticamente significa pensar las condiciones de posibilidad del conocimiento y de la realidad social. No se trata de rechazar o aceptar la tecnología de forma automática, acrítica. Hay que analizar, poner atención a lo que sucede e intervenir para transformar la realidad. Y esta misma crítica ha de ser también autocrítica. Ni la mano ni el espíritu poseen gran potencia por sí solos. Ambos requieren, ya lo decíamos, de instrumentos y auxilios para su obra. Así como las herramientas físicas potencian la mano, los instrumentos intelectuales disciplinan y facilitan el curso del espíritu.

Una tercera última reflexión. Quisiéramos a lo anterior conectar con la propuesta de la ontología social de Mauricio Ferraris, este filósofo italiano, que normalmente es muy conocido por su Historia de la hermenéutica, pero que en los últimos años, junto con otros filósofos, también europeos, algún británico, algún francés, algún alemán, y desde México podría sumarse a Mauricio Beuchot, han estado promoviendo lo que se conoce como nuevo realismo en filosofía. En 2014, en el Congreso de filosofía que se organiza normalmente en México, Mauricio Ferraris lo presentó. De hecho, ya habían pasado dos años de la publicación de su Manifiesto del nuevo realismo. Todo esto tiene que ver con el instrumento. La mano requiere instrumentos, la inteligencia requiere instrumentos y entre los instrumentos hay uno en específico que vamos a denominar bastón, báculo. Y esto nos sirve para responder a la pregunta, ¿por qué usamos la IA, en sentido amplio? Mauricio Ferraris va a responder que lo hacemos por imbéciles. Pero no se malentienda. Ferraris acude al sentido etimológico. Imbécil denomina, en sentido restringido, a quien requiere de bastón, y en sentido amplio, a quien requiere de instrumentos. La tecnología ha sido ese bastón o ese instrumento de auxilio al espíritu y a la mano, aunque no neutro, no exento de ideología. Lo interesante desde el nuevo realismo es que nos revela un dato ontológico o antropológico, el de la imbecilidad natural de los seres humanos, por la cual necesitamos las tecnologías. No se descarta que la larga traiga esta imbecilidad ontológica traiga consigo como consecuencia otro tipo de imbecilidad ya más relacionada con la estupidez, con la idiotez. Sí, también sucede. El reto educativo reside, entonces, en cómo transmitir esta capacidad crítica a los estudiantes. Hay que superar la visión del docente como facilitador, para fomentar un verdadero ejercicio de crítica.

Balance
Cerramos con un balance a esta algo extensa reflexión que hemos titulado “Para lo que no sirven las IA en la academia”, con un comentario al lugar del docente en este tiempo de IA, y unas reflexiones más o menos filosóficas. Tratamos tres aspectos en el texto, a saber, las limitaciones de la IA en la academia, el riesgo de la simulación educativa y las propuestas que hacemos ante dichas situaciones.

Después de los experimentos que hicimos con Copilot y Gemini, concluimos que, aunque son útiles como apoyo, las IA presentan deficiencias críticas para la investigación rigurosa, ya que no son fiables, porque pueden inventar autores, títulos de libros y citas textuales que no existen; ya que son incapaces de acceder a cuanto documento haya en Internet; ya que confunden formatos de citación, esto es, no distinguen entre una cita textual y una parafraseada, presentando a menudo como textual información que no lo es; y ya que se contradicen, presentando los resultados de sus búsquedas como confiables, pero advirtiendo que pueden cometer errores, lo que obliga a verificar manualmente.

Hay un riesgo muy interesante fomentado por la IA, el de la simulación educativa, que se nota, por lo menos, en tres fenómenos. El primero tiene que ver con que los estudiantes de los primeros semestres usan indiscriminadamente la IA para hacer y así entregar trabajos realizados con estas herramientas. Y lo hacen sin comprender el proceso de investigación. El segundo es el del abandono de la lectura profunda y la ética de la investigación y, por ende, el abandono del pensamiento crítico. Luego, lo que se haga con IA, fomenta la simulación, el hacer “como si”.  El tercero tiene que ver con las herramientas de detección de similitudes o de antiplagio que o pueden señalar erróneamente un trabajo humano como IA o no detectar que el trabajo sí se realizó con IA, en su totalidad.

A lo largo del texto, de la reflexión, se ha propuesto que no se vean las IA como infalibles, en ningún sentido, sino, tan sólo, como recursos útiles. De igual manera cabe, para recuperar la humanidad en el tiempo de la IA, volver a la oralidad, a los exámenes escritos a mano y al contacto directo con fuentes primarias para asegurar el pensamiento y evitar la automatización. Es fundamental enseñar ética en el uso de estas tecnologías digitales, desde los primeros semestres universitarios, para evitar que se arrastren vicios toda la carrera y en la vida profesional.

La inteligencia humana es, pensamos, irreemplazable. Pensamos que esto es debido a su capacidad para discernir, a su conciencia, su emoción y a su responsabilidad intelectual, cosas de las cuales carece, todavía, la IA, hasta el momento…

 

Algunas referencias
Eco, U. (2007). ¿De qué sirve el profesor? En A paso de cangrejo: Artículos, reflexiones y decepciones 2000-2006. Debate.

Giroux, H. A. (1990). Los profesores como intelectuales transformativos. En Los profesores como intelectuales: Hacia una pedagogía crítica del aprendizaje. Paidós.

Meirieu, P. (2006). Carta a un joven profesor: Por qué enseñar hoy. Graó.

Microsoft. (2025a). Copilot (App). Microsoft.

Microsoft. (2025b). Copilot Smart (GPT-5). In Microsoft. https://copilot. .com/chats/B9yL4gUmup95rMiytaKWV

Microsoft. (2025c). Copilot Smart (GPT-5). Microsoft. https://copilot.microsoft.com/chats/oEcenmYALs3UsddZT3rmN

 

A T E N C I Ó N
― Si desea imprimir o generar CORRECTAMENTE un PDF de este documento
Clic en el ícono verde que aparece abajo
luego seleccione «Más Ajustes» y al fondo, en Opciones
active “Gráficos de fondo” y desactive “Encabezado y pie de página”.
― Si desea enviar un comentario
utilice el formulario que aparece más abajo
― Si quiere escuchar la lectura de este documento
ábralo en su celular, toque los tres puntos en el ángulo superior derecho
y elija Escuchar

 

Print Friendly, PDF & Email


Tweet



Comentar

Requerido.

Requerido.




 


Critica.cl / subir ▴