ChatGPT, Claude, y los desafíos de la enseñanza: Las formas de la pregunta


chatgpt-claude-y-los-desafios-de-la-ensenanza-las-formas-de-la-pregunta

Imagen: Tomada de bluesoft

 

Hace poco, a solicitud mía, me relataron el siguiente kōan:

En la tierra de la sabiduría, un buscador se acercó a un maestro y preguntó: “Maestro, ¿cómo puedo encontrar las respuestas que busco?” El maestro, sabio y sereno, respondió: “Dime, joven buscador, ¿cuál es la forma de la ignorancia?” Perplejo, el buscador reflexionó y respondió: “Maestro, la ignorancia no tiene forma. Es la ausencia de conocimiento”. El maestro asintió y habló: “En efecto, joven buscador, al igual que la oscuridad es la ausencia de luz. Ahora, dime, ¿cuál es, entonces, la forma de una pregunta?”. El buscador reflexionó profundamente sobre esta pregunta y respondió: “Maestro, una pregunta es como un recipiente esperando ser llenado de conocimiento. Es el comienzo de la comprensión”. Con una sonrisa suave, el maestro impartió su sabiduría: “Exactamente así, joven buscador. Al igual que un recipiente debe estar vacío para ser llenado, una pregunta debe formarse con conocimiento para buscar una verdadera comprensión. Solo cuando uno tiene conocimiento puede hacer las preguntas que conducen a la iluminación”. Y en ese momento, el buscador se dio cuenta de la profunda verdad: Para hacer preguntas significativas, primero se debe cultivar el conocimiento y la comprensión. Porque la calidad de nuestras preguntas determina la profundidad de nuestra comprensión.

“Proponemos ver la inteligencia artificial generativa como un kōan”.

Un kōan es un dispositivo literario interesante. Es un texto que tiene como función desencadenar un cambio en la subjetividad, como un programa informático especialmente diseñado para las particularidades de nuestro cerebro. Tiene su origen en el budismo Zen en China durante el siglo VIII, y su sello característico es su forma:  breves relatos, diálogos o preguntas aparentemente ilógicas que desafían el pensamiento racional. Su propósito es romper los patrones habituales de pensamiento y llevarnos más allá de los límites de la mente conceptual. Estas paradojas eran utilizadas por los monjes budistas como herramientas para alcanzar la iluminación y una comprensión profunda de la realidad. El objetivo de los kōan no es encontrar una respuesta intelectual, sino provocar una profunda transformación de la conciencia. Constituyen en sí mismo un reto, un desafío, que nos obliga a reencuadrar la manera en la que vemos el mundo, y ajustar nuestra posición en él, liberándonos de las trabas que atan nuestro potencial.

Si bien en el contexto educativo la entrada de ChatGPTClaude, y otras herramientas de inteligencia artificial generativa, fundamentalmente de la mano de nuestros alumnos, se puede entender como un desafío en el proceso de enseñanza-aprendizaje, proponemos ver la inteligencia artificial generativa más bien como un kōan. Una oportunidad para reposicionarnos frente a la naturaleza del saber, de las competencias, de la autoridad de las fuentes de información, incluyendo el profesor y el aula. De aprovecharlo, como una oportunidad para acercarnos a esa formación de pensamiento crítico e independiente, que tantas veces se ha planteado, y otras tantas se ha mostrado extraordinariamente elusivo. La inteligencia artificial generativa puede ser una herramienta adicional para fomentar el debate y desencadenar procesos de reflexión crítica, en el aula. Pero requerirá que los profesores sean usuarios activos y reflexivos de esta herramienta. Que conozcan su historia, las razones de sus funcionalidades y sesgos. Que dominen los riesgos, pero también las oportunidades. No como una herramienta tecnológica más, y este punto creemos que es importante, sino como una herramienta que nos pide reflexionar sobre los procesos de formación de saberes y su dependencia de los contextos históricos y comunicativos.

Si hurgamos en nuestra memoria veremos que ya tenemos registro de fricciones en el pasado, entre nuevos modos de hacer y prácticas establecidas en la enseñanza. Como uno de los últimos ejemplos está el uso de la Wikipedia en el aula, y su lugar ambiguo como fuente de información legítima. También sabemos que, eventualmente, los nuevos usos se van estableciendo, se van naturalizando poco a poco, impulsados por la curiosidad frente a las nuevas oportunidades de aquellos que menos tienen que perder, que usualmente son los más jóvenes.

Un ejemplo de esta adopción temprana se puede ilustrar con un ejemplo concreto sacado de la enseñanza universitaria. En las conferencias impartidas por uno de los autores de este artículo, en la carrera de Comunicación Social, fue evidente que los alumnos conocen, perfectamente, las limitaciones de la inteligencia artificial generativa. Saben que pueden falsear información, que sus respuestas están sesgadas hacia el idioma y la cultura inglesa, no importa si se relacionan con ella en español. Saben que tienen información desactualizada muchas veces, que su conocimiento sobre el mundo y la cultura no anglosajona es limitado y parcial, y, además, saben que los modelos de inteligencia artificial generativa, especialmente aquellas que son ofrecidas por grandes empresas norteamericanas, están fuertemente censuradas, en temas sexuales, raciales, y políticos. Sin embargo, a pesar de que conocen estas limitaciones, no dudan en emplearlas al máximo a la hora de completar una tarea de la carrera, sin revisar demasiado la calidad del resultado obtenido. Conocemos que eso ocurre, pero muchas veces no colocamos la responsabilidad en el lugar correcto. La clave es esta: si la tarea se siente como repetitiva, aburrida y que no agrega valor al usuario, sea un profesional o estudiante, se va a usar una herramienta como ChatGPT para ello. Ese es uno de los sentidos de su existencia: liberarnos de las tareas repetitivas, aburridas y no enriquecedoras.

Por ello, uno de los desafíos es acompañar, no negar, la adopción de estas herramientas de manera consciente, reflexiva y ética, para potenciar el bienestar humano. Y para ello, debemos tener nociones de cómo funciona, para qué es buena y para qué no. Implica saber formular las preguntas correctas, darle la forma adecuada a los recipientes de conocimiento que son nuestras preguntas.

La idea que subyace a estas herramientas es relativamente fácil de entender, aunque requiere para su correcta implementación de un altísimo nivel de ingeniería:  Disponemos de enormes cantidades de datos textuales digitalizados. ¿Por qué no los aprovechamos y hacemos que las máquinas aprendan de manera automática que palabras siguen a cuáles otras con mayor probabilidad? Modelos como GPT-3 o Claude son ejemplos de estas técnicas. Estos son entrenados con enormes cantidades de datos, lo que les permite capturar diversos patrones del lenguaje humano. Luego, pueden tomar una pequeña entrada o prompt del usuario (unas palabras, un concepto) y generar nuevo contenido relacionado, como continuar un texto de forma coherente o responder una pregunta. Es decir, su funcionalidad básica es predecir, con mayor probabilidad, cuál es la palabra que le sigue a un texto. Dicho rápido y mal, son avanzados pronosticadores de palabras. Y gracias a su tamaño y complejidad, muestran comportamientos emergentes, no directamente determinados por el contenido explícito de los datos previos de entrenamiento. Una de las manifestaciones de lo anterior está, por ejemplo, en la capacidad de transferir conocimiento a nuevos campos.

“El buen diseño del prompt determina la calidad de la respuesta. Debe ser lo más preciso posible”.

De aquí se desprende una peculiaridad de este tipo de inteligencia artificial. A veces, transfiere bien el conocimiento. Pero otras, lo hace muy mal. Puede “alucinar”, o inventar información ante la ausencia de datos. Es como un alumno que se siente compulsado a inventar la respuesta ante una pregunta de la que no sabe nada. Un alumno, extraordinariamente talentoso, que no sabe el contenido de su respuesta, pero conoce el tono, el estilo y el formato que deberá tener, y usa ese conocimiento para inventarla.

La inteligencia artificial generativa, por diseño, siempre va a generar la próxima palabra más probable. Es por ello que es importante la calidad del texto que se le da a completar, o el prompt. El buen diseño del prompt determina la calidad de la respuesta. Debe ser lo más preciso posible. Debe tener en cuenta sus limitaciones. Hay que saber ponerse en su lugar, o lo que es lo mismo, hay que tener buenas habilidades comunicativas. Se le puede pedir que piense paso a paso su respuesta. Se le puede solicitar que considere respuestas alternativas y que las evalúe, en una técnica conocida entre los especialistas como “Árbol de Pensamiento”, entre otras estrategias que permiten asegurar la calidad de su respuesta.

Este es uno de los aspectos más interesantes de la interacción con estas herramientas, y una que se desprende directamente no solo de su carácter de tecnología de propósito general, sino de la capacidad de agencia que tiene inscrita en su diseño.

Al interactuar con la inteligencia artificial generativa estamos experimentando una nueva forma de agencia tecnológica. Es un agente que pide maneras particulares de interacción. No es apretando teclas o dando vueltas a diales. Es escribiendo mensajes en un chat. Es comunicando. Es por ello que las habilidades de comunicación interpersonal se hacen relevantes. Hay que saber usar bien el idioma para formular correctamente un prompt. Hay que tener la capacidad de colocarse en la perspectiva del otro, en este caso del modelo de inteligencia artificial generativa, y a partir de su perspectiva, de sus limitaciones, formular un prompt que tenga la cantidad de detalles, de información contextual y de maneras eficientes de evaluar la respuesta, como para que el resultado de ese intercambio sea exitoso y podamos obtener la respuesta que necesitamos

Esa es una exploración en la que deben participar, activamente, también los profesores. No solo para el mejor conocimiento de cómo y cuándo usar la inteligencia artificial generativa, sino para aprovechar esos momentos y discutir con los estudiantes el por qué.

Pero, además, hay una dimensión adicional. Una que, aparte de las particularidades del diseño de la herramienta, requiere tomar al contexto económico, político y cultural para entender ciertas limitaciones del comportamiento de los modelos de inteligencia artificial generativa al uso. Los estudiantes universitarios del ejemplo que pusimos, conocen de esas limitaciones y, además, las exploran activamente. Le piden a la inteligencia artificial generativa respuestas que implican contenidos sexuales, raciales o políticos considerados conflictivos, y valoran la respuesta del modelo, cuan censurada está, exploran variadas maneras de sortearla y de hacer al modelo violar sus propias reglas. Además, entienden el origen de esa censura y la relacionan, correctamente, con el contexto político internacional. Juegan con el modelo y entienden sus limitaciones, asegurando una apropiación crítica que establece los momentos y lugares en los que usarla es realmente útil.

Esa es una exploración en la que deben participar, activamente, también los profesores. No solo para el mejor conocimiento de cómo y cuándo usar la inteligencia artificial generativa por parte de los estudiantes, o el reconocimiento de los giros retóricos que usa la inteligencia artificial en sus respuestas y que constituyen casi marcas de fábrica reconocibles, sino para aprovechar esos momentos y discutir con los estudiantes el por qué. ¿Qué saben estos modelos de los próceres, la historia, los autores y artistas de la cultura latinoamericana, africana o india? La verdad que no mucho. ¿Y por qué? La respuesta puede ser obvia, pero quizá no tiene por qué ser tan obvio imaginar que no tiene por qué ser así, y que hay futuros alternativos donde una inteligencia artificial generativa puede dar respuestas valiosas, y convertirse en una puerta de entrada a la cultura e historia de la región o la localidad natal de un usuario.

Para ello hay que conocer, por supuesto. No solo hay que darle la forma correcta a la pregunta, sino también buscar activamente esa respuesta.

“Estos modelos están llamados a convertirse en otra de las puertas digitales de entrada al saber y al conocimiento, como lo es actualmente Google, como lo fue y lo siguen siendo los libros”.

Una de las razones que explica por qué la cultura y la lengua anglosajona está privilegiada en los modelos de inteligencia artificial generativa habla de desarrollo tecnológico, de recursos económicos, de capacidades intelectuales instaladas desde hace décadas en forma de cantidad de doctores y especialistas. No es una respuesta menor, porque estos modelos están llamados a convertirse en otra de las puertas digitales de entrada al saber y al conocimiento, como lo es actualmente Google, como lo fue y lo siguen siendo los libros. Pero las respuestas que van por la economía y la historia es preciso reconocer que por sí mismas, no empoderan mucho. ¿De dónde vamos a sacar los doctores y los millones para tener los modelos de inteligencia artificial que necesitamos aquí y ahora, adaptados a nuestras necesidades? Sin embargo, si se pregunta y se busca, se encuentra que hay posibilidades de mejores respuestas.

En febrero del 2023, con la publicación del modelo de inteligencia artificial generativa LlaMA, por parte de Meta, apareció la oportunidad de construir una comunidad de código abierto alrededor de estos modelos. Las consecuencias están a la vista. Los costos asociados al entrenamiento y adaptación de un modelo de inteligencia artificial han bajado de los millones a los miles e incluso cientos. Están proliferando modelos de diversos tamaños y especializaciones, capaces de vivir en un ordenador modesto y ordinario, y orientados a la escritura de código de programación, o a la narrativa literaria, o a la ciencia en general. Eso sí, aún son casi inexistentes los modelos de inteligencia artificial adaptados a la lengua española. Uno de los autores de esta ponencia afirma que esa ausencia cada vez es más notoria, y más injustificada. No es cuestión de dinero, ni de doctorado. Lo cual por supuesto ayuda, pero ahora mismo no es el obstáculo principal. Es solo hacerse la pregunta ¿Por qué no?

Somos seres mediados por las tecnologías, y cuando nos apropiamos de nuevas tecnologías aplicables a muchos campos, nos obliga a un proceso de reaprendizaje intenso y abarcador, con impacto en múltiples instancias de la vida. Este proceso de desaprendizaje y aprendizaje puede ser costoso en tiempo, en costumbres, incluso en emociones, pero es necesario para adaptarnos a los nuevos contextos en los que tienen que vivir y crecer nuestros estudiantes. A medida que avanza la tecnología, debemos estar dispuestos a reinventarnos y aprender habilidades nuevas. Pasó con las computadoras personales. Pasó con la llegada de los móviles. Y ocurre con la inteligencia artificial generativa.

Estas herramientas llegan con sus propios desafíos. Conocer cómo y cuándo se hace un uso responsable y significativo de ellas. Comprender sus riesgos y ventajas. Fomentar su apropiación social de manera amplia y enriquecedora. Todas estas son cuestiones y retos que, dado lo reciente de su surgimiento, los profesores y los estudiantes parten casi en igualdad de condiciones, y ambos pueden participar, como co-creadores de ese nuevo futuro donde la inteligencia artificial tiene una presencia más visible.

Empezamos esta ponencia con un kōan. Ahora develamos que fue generado por una inteligencia artificial. Terminamos con otro kōan, este sí perteneciente a la tradición clásica del budismo Zen:

Dos monjes estaban discutiendo acerca de una bandera que ondeaba al viento. Uno dijo: “La bandera se mueve”. El otro dijo: “El viento es el que se mueve”. Ocurrió que su maestro pasó cerca de ellos y les dijo: “No es la bandera, ni es el viento. La mente es la que se mueve”.

 


0 comentarios

Deje un comentario



v5.1 ©2019
Desarrollado por Cubarte