ChatGPT en la universidad: riesgos, usos reales y cambios necesarios

Última actualización: febrero 21, 2026
  • El uso de ChatGPT entre estudiantes universitarios es ya masivo y está transformando silenciosamente el estudio, la evaluación y la relación con el profesorado.
  • Las universidades reaccionan entre la prohibición y la experimentación: revisan exámenes, diseñan nuevas metodologías y empiezan a formar sobre uso ético de la IA.
  • La clave no es solo evitar trampas, sino redefinir la enseñanza, la investigación y las competencias que se consideran valiosas en la educación superior.
  • ChatGPT abre una oportunidad histórica para personalizar el aprendizaje, pero también amenaza la integridad académica y las habilidades sociales si no se gestiona bien.

ChatGPT en la universidad

La irrupción de ChatGPT en las aulas universitarias ha pillado a muchas instituciones con el pie cambiado: mientras el estudiantado lo adopta de forma masiva para estudiar, redactar y resolver dudas, buena parte de los campus aún debate si hay que prohibirlo, regularlo o integrarlo a fondo en la docencia. Entre el temor al plagio y el entusiasmo por su potencial, la realidad es que la inteligencia artificial generativa ya está remodelando los cimientos de la educación superior.

Esta transformación va mucho más allá de que el alumnado pida a un chatbot que le redacte un trabajo. Obliga a replantear cómo enseñamos, cómo evaluamos, qué entendemos por aprendizaje profundo y qué tipo de competencias deberían desarrollar los futuros profesionales. Y, de paso, pone frente al espejo las carencias de unos modelos educativos que, como advierten voces tan críticas como la de Noam Chomsky, llevaban años mostrando signos de agotamiento.

Del entusiasmo al pánico: reacciones iniciales de las universidades

Desde los primeros meses de vida de ChatGPT, muchas universidades reaccionaron con desconfianza. El foco inicial se puso casi exclusivamente en el fraude: trabajos escritos por la IA, exámenes resueltos con ayuda del móvil o tareas realizadas sin apenas comprensión real de los contenidos. Algunas instituciones, como Sciences Po en Francia, llegaron a anunciar la prohibición expresa de su uso, sin explicar demasiado bien cómo pensaban hacerla cumplir más allá de restringir dispositivos.

Este tipo de respuestas defensivas ha sido criticado por numerosos expertos como un intento de “matar al mensajero”. En lugar de preguntarse cómo aprovechar una herramienta que será cotidiana en cualquier entorno profesional, se optó por intentar expulsarla del aula. Chomsky, en una conversación con el canal EduKitchen, definió el fenómeno con dureza: denunció que ciertas tecnologías se han convertido en una forma “de esquivar el aprendizaje” y calificó buena parte de los ensayos universitarios como un simple “revoltijo de palabras” enviado por vía electrónica.

Sin embargo, si se analizan con calma esas críticas, el tiro va mucho más allá de ChatGPT. Lo que se cuestiona de fondo es la compatibilidad entre el modelo universitario tradicional —centrado en pruebas escritas estandarizadas y trabajos repetitivos— y la existencia de sistemas capaces de generar textos coherentes en segundos. En otras palabras: si el producto final que pedimos al alumnado lo puede fabricar una máquina sin esfuerzo, quizá el problema no sea la máquina.

Mientras Europa discute si hay que frenar o limitar la IA, otros países se mueven con más rapidez. En Estados Unidos, algunas escuelas y universidades ya han empezado a reducir el peso de los típicos “trabajos para casa” y a recuperar exámenes orales, ejercicios manuscritos en clase o actividades más prácticas. Un efecto curioso de esta oleada de IA es que puede contribuir a jubilar los trabajos interminables sin apenas valor pedagógico, dando más protagonismo a dinámicas de aula activa y colaboración.

Estudiantes usando IA en la universidad

ChatGPT como palanca de cambio metodológico

Una de las ideas recurrentes entre quienes estudian el impacto de la IA en la universidad es que el problema no es la herramienta, sino el modelo docente. Si el profesorado se limita a repetir contenidos que ya están disponibles en manuales, webs y ahora también en chatbots, el valor añadido que aporta al aula cae en picado. En cambio, si se rediseñan las clases para que el alumnado llegue con los conceptos básicos trabajados y se use el tiempo presencial para debatir, resolver problemas y crear, la IA se convierte en un aliado.

Este enfoque se alinea con el llamado “Aula Invertida”: el estudiantado estudia en casa —con vídeos, lecturas o incluso con ayuda de ChatGPT— y dedica las sesiones presenciales a aplicar, discutir y profundizar. La IA puede servir aquí como un tutor de guardia, disponible 24/7, que explica de otra forma aquello que no se entendió en la explicación oficial. Lo que cambia radicalmente es el tipo de tarea que se hace en clase y en casa, y el papel del docente, que pasa de ser un mero transmisor de información a diseñador de experiencias de aprendizaje.

En España ya existen experiencias concretas que muestran este potencial. Un caso llamativo es el del proyecto Bártolo en la Universidad de Alicante, donde se desarrolló un chatbot específico para apoyar la asignatura de Derecho Internacional Privado. Durante los primeros meses, el sistema se limitó a registrar las preguntas reales del alumnado sobre la materia: dudas de clase, aclaraciones sobre manuales, preparación de exámenes, etc.

  Canarias refuerza su plantilla docente con 700 profesionales

En poco tiempo, los estudiantes formularon más de 2.000 preguntas, generando un mapa muy preciso de sus dificultades. Los docentes describieron este volumen de consultas como un auténtico “escáner” de las barreras de comprensión de la asignatura. No solo permitió ajustar explicaciones y materiales, sino que llevó a uno de los profesores a plantear una idea provocadora: quizá habría que evaluar a los estudiantes por la calidad de las preguntas que hacen, no solo por las respuestas que dan.

Esta propuesta encaja muy bien con un mundo en el que la información bruta ya no es el recurso escaso. En ámbitos como la medicina, ningún especialista puede leer por sí solo todo lo que se publica sobre su área: artículos científicos, ensayos clínicos, nuevos fármacos, bases de datos de pacientes… La IA generativa puede procesar y sintetizar ese océano de datos, pero el valor real está en saber qué preguntarle, cómo interpretar lo que devuelve y cómo contrastarlo. Es ahí donde formular buenas preguntas se convierte en una competencia central.

El papel de la investigación universitaria en la era de la IA generativa

En investigación, herramientas como ChatGPT y otros modelos de lenguaje avanzados apuntan a ser un acelerador poderoso. Su capacidad para sintetizar literatura dispersa, generar marcos teóricos preliminares o sugerir hipótesis hace que muchos grupos estén empezando a integrarlos como apoyo en las primeras fases de los proyectos. Cuando se combinan con datos propios y conocimiento experto, los resultados pueden ser sorprendentes.

Algunos estudios experimentales ya han comprobado que, incluso sin procesar, las propuestas de investigación que genera la IA son a menudo plausibles. Si a ese punto de partida se añaden bases de datos internas, criterios metodológicos claros y la experiencia de investigadores consolidados, la calidad de las ideas y diseños mejora notablemente. De este modo, la IA no sustituye al equipo, sino que actúa como un generador de borradores y posibilidades que luego se depuran con criterio humano.

Esta situación pone en evidencia una paradoja bastante incómoda del sistema científico actual: gran parte de la producción financiada con dinero público está encerrada tras muros de pago, de manera que ni la ciudadanía ni muchas herramientas de IA pueden acceder libremente a ese conocimiento. En áreas críticas como el cáncer, el cambio climático o la nanotecnología, esto limita que los modelos generativos se alimenten de todo el corpus disponible y, por tanto, reduce su capacidad de aportar valor.

A la vez, algunas revistas y comités científicos han reaccionado con suspicacia ante el uso de ChatGPT en la redacción de artículos. Hay editoriales que prohíben que la IA figure como coautora e incluso vetan su uso para redactar secciones completas de los trabajos. Quienes critican esta postura señalan que el foco debería estar en la relevancia y rigor de los resultados, no tanto en si se ha utilizado una herramienta para acelerar la escritura del primer borrador o la revisión de estilo.

Una consecuencia probable de todo esto será la revisión del concepto de autoría y de propiedad intelectual en la investigación. Si la IA ayuda a formular modelos matemáticos, generar código, construir hojas de cálculo o incluso diseñar experimentos, los criterios tradicionales de originalidad van a quedarse cortos para describir quién aporta qué. Más que cerrarse en banda, muchos expertos apuestan por transparentar el uso de estas herramientas y por reforzar la exigencia sobre la validez de los datos y la solidez metodológica.

Cómo están usando ChatGPT los estudiantes universitarios

Mientras los debates institucionales avanzan a otro ritmo, el alumnado ya ha integrado la IA en su día a día académico. Diversos estudios realizados en España y a escala internacional revelan cifras muy contundentes: en muchos campus, entre un 70 % y casi un 90 % de los universitarios de grado reconoce usar ChatGPT u otras IAs generativas con frecuencia. En algunos análisis globales se estima que al menos el 84 % del estudiantado lo ha utilizado alguna vez.

¿Para qué lo emplean principalmente? Los usos más habituales son la generación de ideas para trabajos y ensayos, la síntesis de textos largos, la redacción académica en general y la resolución de dudas concretas. Un porcentaje elevado —más de dos tercios en algunos estudios— valora especialmente su capacidad para simplificar información compleja. También se utiliza como una especie de “segunda explicación” de los contenidos de clase o como herramienta de apoyo para aprender idiomas.

Otro dato relevante es la frecuencia de uso. No se trata de algo anecdótico: aproximadamente un tercio del alumnado declara usar chatbots de IA a diario, y muchos más lo hacen varias veces a la semana. Lo viven como un tutor disponible cuando el profesorado no está localizable, que responde de forma inmediata y se adapta al tipo de pregunta que plantean.

Aunque la percepción general es positiva, no todo son aplausos. Una parte importante de los estudiantes reconoce que desconfía de la fiabilidad plena de las respuestas: temen errores, sesgos o inventos (“alucinaciones” de la IA). También les preocupa que el uso indiscriminado pueda ser interpretado como trampa, que se vulnere la normativa académica o que se ponga en riesgo su privacidad al introducir datos personales o sensibles.

  Nuevo colegio público en Tres Cantos: 900 plazas y apuesta por la educación continua

Sin embargo, en la práctica se observa una contradicción llamativa. Muchos estudiantes dicen no fiarse del todo de la IA, pero luego entregan trabajos elaborados con su ayuda sin hacer una verificación rigurosa de los hechos ni contrastar fuentes, incluso cuando las instrucciones del ejercicio piden explícitamente ese contraste. La comodidad y el ahorro de tiempo, sumados a que “de momento funciona”, empujan a confiar más de la cuenta en lo que devuelve el sistema.

Estudios recientes: qué sabemos sobre su impacto en el alumnado

Diversas investigaciones están empezando a pintar un retrato bastante completo del vínculo entre ChatGPT y el estudiantado. Un estudio global con más de 23.000 respuestas de estudiantes de 109 países, en el que participan universidades españolas como la de Alicante, muestra no solo el uso masivo de la herramienta, sino también cómo está influyendo en la manera de relacionarse, aprender y proyectar la propia carrera profesional.

En términos de satisfacción, alrededor del 70 % de los estudiantes afirma que usar ChatGPT les parece interesante. Muchos sienten curiosidad, tranquilidad o incluso cierta fascinación al interactuar con la IA. Llama la atención un dato: aproximadamente una cuarta parte asegura que le resulta más fácil hablar con ChatGPT que con sus compañeros, lo que apunta a un posible deterioro de las habilidades sociales y de la disposición a debatir cara a cara.

Las investigadoras y los investigadores que analizan estos datos lanzan una señal de alerta. Conversar con otras personas exige un esfuerzo adicional: hay que argumentar, interpretar gestos y tonos, negociar, adaptarse al otro. Lanzar una pregunta a un chatbot ahorra buena parte de ese esfuerzo cognitivo y emocional. Si el uso de la IA sustituye de forma sistemática a la interacción con iguales, puede terminar debilitando competencias clave para el trabajo en equipo y la integración en grupos sociales.

El estudio también explora la percepción sobre riesgos éticos y de privacidad. Aproximadamente dos tercios del alumnado dice ser consciente de que debe tomar precauciones con sus datos personales, pero solo una parte menor manifiesta una preocupación intensa por la invasión de la privacidad. Al mismo tiempo, el 74 % declara inquietud por el impacto ético de estas tecnologías y casi ocho de cada diez muestra preocupación por aspectos de seguridad.

En cuanto al mercado laboral, una mayoría ve la IA como un motor de demanda de nuevas competencias. Alrededor del 61 % cree que el auge de herramientas como ChatGPT incrementará la necesidad de trabajadores con habilidades relacionadas con la IA. Menos estudiantes piensan que vaya a resolver por sí sola los desajustes de habilidades o a reducir de forma clara el desempleo, pero sí la consideran un activo para mejorar la propia empleabilidad si se domina bien.

Honestidad académica, trampas y decisión ética de usar IA

Más allá de los datos de uso, un aspecto crucial es cómo se cruza ChatGPT con la integridad académica. Investigaciones recientes en universidades españolas han analizado la relación entre la percepción de deshonestidad académica y la decisión de utilizar o no la IA generativa. Se entiende por deshonestidad académica comportamientos como copiar en un examen, inventar excusas para conseguir más tiempo en una entrega o presentar como propio un trabajo ajeno.

En torno al 83 % del alumnado considera claramente inaceptables estas prácticas. Dentro de ese grupo mayoritario, se observa una relación interesante: quienes más condenan hacer trampas tienden también a percibir más riesgos en el uso de ChatGPT y, en consecuencia, lo utilizan menos y con menos intención de seguir usándolo en el futuro. Para ellos, la IA no es simplemente una herramienta neutra, sino un ámbito donde está en juego su propio código ético.

De hecho, muchos estudiantes describen el uso de ChatGPT como una decisión que valoran moralmente. Antes de abrir el navegador, sopesan ventajas y riesgos: la rapidez y facilidad frente al miedo al plagio, a sanciones institucionales o a depender demasiado de la máquina. La “brújula ética” de cada persona amplifica unos u otros elementos y termina inclinando la balanza.

Esto conecta con otro hallazgo preocupante: el uso de la IA se suma a un problema de trampas que ya venía de lejos. Estudios en universidades como Stanford o Middlebury, previos incluso a la aparición de ChatGPT, mostraban altos niveles de incumplimiento de los códigos de honor. Desde copiar en exámenes hasta encargar trabajos completos a terceros a través de plataformas online, la externalización del esfuerzo académico ya estaba muy extendida.

Con la llegada de la IA generativa, este escenario se hace más complejo y más fácil de ocultar. Hoy es posible encargar un trabajo a alguien de otro país o generarlo con un chatbot en cuestión de minutos. Pedir borradores, esbozos o incluso justificar el proceso de escritura tampoco garantiza la autenticidad, porque también se pueden delegar esos pasos. Las instituciones que basaban la integridad en la vigilancia mínima y en la autorregulación del estudiantado se encuentran con que esa cultura se está resquebrajando.

  Educación en crisis: impacto global de la falta de acceso y calidad educativa

Lo que están haciendo (y lo que aún no hacen) las universidades

Frente a este panorama, los campus han empezado a moverse, pero de forma desigual. Algunos han recuperado la vigilancia presencial en los exámenes escritos, después de años confiando en códigos de honor que ahora parecen insuficientes. Otros están explorando cambios en la evaluación: más pruebas orales, más trabajo en clase, más peso del proceso y menos del producto final escrito que puede generar una IA.

Los estudios sobre políticas universitarias en España muestran que menos de la mitad de las instituciones ha modificado ya su enfoque de evaluación, pese a que la mayoría reconoce haber detectado ejercicios y pruebas en los que el alumnado ha utilizado respuestas generadas por IA. Es decir, la realidad ya está ahí, pero los reglamentos y las prácticas docentes van por detrás.

En cuanto a la formación, la mayoría de universidades que han empezado a actuar lo están haciendo primero con el profesorado. Se ofrecen talleres y seminarios sobre qué es la IA generativa, cómo funciona, qué límites tiene y de qué manera puede utilizarse para preparar clases, generar materiales o apoyar la investigación. Sin embargo, muchos menos campus han establecido programas sistemáticos para formar al propio estudiantado en un uso crítico y responsable.

Desde el punto de vista del alumnado, la percepción es también muy dispar. Alrededor de un 12 % siente que su universidad no solo no fomenta estas herramientas, sino que directamente las restringe mediante prohibiciones y vetos. En el polo opuesto, casi una cuarta parte considera que su institución las está integrando activamente en los estudios y promocionando su uso. Entre ambos extremos, se sitúan quienes ven posturas tibias o una total ausencia de política clara.

Una línea de trabajo prometedora son los talleres colaborativos de elaboración de normas. En algunas facultades se han organizado sesiones donde se combinan encuestas en directo, debate abierto y redacción conjunta de pautas de uso responsable de la IA. La experiencia indica que cuando los estudiantes participan en definir qué se considera aceptable y qué no, salen no solo mejor informados técnicamente, sino también con una brújula ética más firme. La clave es que sientan que las reglas no se les imponen desde arriba sin diálogo.

Entre la oportunidad histórica y el riesgo de agrandar brechas

Mirando más allá del aula, ChatGPT puede convertirse en un factor de diferenciación enorme entre personas, universidades y países. Quien aprenda a sacarle partido de forma intensiva —para estudiar, investigar, innovar o emprender— tendrá una ventaja clara frente a quien lo ignore o lo use de manera superficial. Eso vale tanto para el estudiantado individual como para instituciones y sistemas educativos completos.

Desde esta perspectiva, prohibir o limitar en exceso la IA en la universidad puede ser pan para hoy y hambre para mañana. Un país con altas tasas de desempleo juvenil, como España, difícilmente se puede permitir que sus futuros graduados salgan al mercado laboral sin soltura en herramientas que las empresas ya están incorporando a sus procesos. Del mismo modo, si las universidades europeas se quedan atrás frente a Estados Unidos o Asia en innovación basada en IA, la brecha tecnológica y económica puede ampliarse.

Eso no significa ignorar los riesgos ni hacer como si la IA fuera siempre neutra y benéfica. El reto pasa por rediseñar la enseñanza para que la herramienta se use como apoyo al pensamiento crítico, y no como sustituto de este. Se trata de enseñar a contrastar fuentes, a identificar errores y sesgos en las respuestas generadas, a formular mejores preguntas y a combinar lo que dice la máquina con el propio juicio informado.

También es imprescindible reforzar competencias que la IA no cubre bien, al menos por ahora: comunicación interpersonal, trabajo en equipo, negociación, creatividad genuina, autorregulación y ética profesional. Numerosos estudios señalan que estas “habilidades blandas” serán determinantes para la empleabilidad futura. Si los campus delegan demasiado en la IA y descuidan estos aspectos, pueden estar debilitando justo aquello que hará únicos a sus titulados.

Al final, ChatGPT en la universidad funciona como un gran amplificador de tendencias preexistentes: evidencia las debilidades de los modelos de evaluación basados en tareas mecánicas, destapa problemas de integridad académica que ya estaban ahí y pone presión para actualizar la docencia, la investigación y la gestión universitaria. Al mismo tiempo, ofrece uno de los recursos más potentes que ha tenido nunca la educación para personalizar el aprendizaje y abrir el acceso al conocimiento. Cómo se incline la balanza dependerá menos de la tecnología en sí y más de las decisiones que tomen universidades, profesorado y estudiantes sobre el uso que quieren hacer de ella.

Estudiar Inteligencia Artificial
Artículo relacionado:
Estudiar Inteligencia Artificial: Nuevos Retos, Oportunidades y Experiencias Inspiradoras