lunes 08 de julio de 2024

El desafío de ChatGPT a los docentes: ¿cómo darse cuenta si una máquina hizo la tarea?

Los alcances de la inteligencia artificial recién empiezan a vislumbrarse y así como generan grandes beneficios, también suponen serios desafíos.

--:--

No hay duda, ChatGPT llegó para revolucionar el mundo y los avances en el desarrollo de la inteligencia artificial le darán forma al futuro mucho más rápido que hasta ahora. El nuevo sistema ya es sensación y continúa sorprendiendo a todos con sus increíbles soluciones, pero también supone grandes riesgos o, al menos, serios desafíos para evitar abusos.

El propio sistema desarrollado por OpenAI es consciente de los problemas que podría generar su uso en las aulas y es que el robot indicó que "puede ser una herramienta valiosa para las escuelas, pero es importante que los educadores sean conscientes de los riesgos potenciales y tomen medidas para minimizarlos", por lo que ante la consulta hecha por TN Tecno recomendó además estar atentos al contenido inapropiado, los sesgos de información, la dependencia tecnológica y la privacidad de los datos.

"El principal y más desafiante riesgo es que las personas usuarias finales no entiendan que está sucediendo alrededor de esta tecnología y cuán transparente es el algoritmo", destacó al respecto la especialista de educación y tecnología Melina Masnatta, directora de Global Learning and Diversity de Globant, en diálogo con aquel medio; y agregó además que ChatGPT plantea uno de los grandes dilemas de la tecnología, el "tema de la caja negra: no entender qué está pasando detrás".

Aunque la inteligencia artificial existe desde hace muchísimo tiempo, el riesgo subyace ahora en la cercanía con muchas más personas y que, en muchas ocasiones, sus respuestas pueden ser interpretadas como humanas.

Según revela Lucas Soares, doctor en filosofía y profesor en la Universidad de Buenos Aires, los alcances de ChatGPT no pasan desapercibidos en las cátedras universitarias. "Se habla de su aparición y de cómo podría impactar en las evaluaciones", explicó el autor de El poeta y el buey y quien además detalló que, por ahora, responde con una buena redacción, pero con contestaciones "un tanto mediocres". No obstante el experto sabe que ello no durará: "Con el correr del tiempo esto va a perfeccionarse cada vez más, y es probable que termine brindando respuestas solventes", sostuvo.

RIESGO EN LAS AULAS

Entre un mar de dilemas, surge uno de particular importancia en el ámbito académico: ¿cómo distinguir un trabajo realizado por esta tecnología y otro escrito por un alumno?

Dado que cualquier estudiante podría usar herramientas como ChatGPT para hacer, por ejemplo, un trabajo práctico, lo cierto es que para los educadores resulta trascendental saber cómo identificar un texto escrito por una máquina y para ello existen programas que los identifican: como el caso de GPTZero. El programa fue creado por un estudiante e incluso existe un método ofrecido por la propia OpenAI -AI Text Classifier- como "antídoto" para su creación.

"El clasificador tiene como objetivo ayudar a mitigar las afirmaciones falsas de que el texto generado por IA fue escrito por un humano. Sin embargo, todavía tiene una serie de limitaciones, por lo que debe usarse como complemento de otros métodos para determinar la fuente del texto en lugar de ser la herramienta principal para la toma de decisiones", explicaron desde OpenAI y agregaron: "Estamos poniendo a disposición este clasificador inicial para obtener comentarios sobre si herramientas como esta son útiles y esperamos compartir métodos mejorados en el futuro".

En este marco, por ahora, la experiencia y la astucia humana todavía siguen siendo el mejor y más confiable mecanismo para detectar los textos generados por la inteligencia artificial y descubrir así los engaños a los que un docente podría enfrentarse.

Según Soares estos avances hacen que "de alguna manera debamos replantear los sistemas de evaluación y los tipos de preguntas", considerando que hay habilidades humanas que la IA, al menos por ahora, no logra emular, por lo que el foco no debería estar en cómo se responde a las evaluaciones sino en las preguntas mismas.

"Más que controlar, creo que es relevante dar herramientas de pensamiento crítico, sobre todo a las personas que están estudiando. Acá hay algo parecido a lo que ocurrió con Wikipedia: es importante entender cómo se construye esa información, no negarla ", concluyó por su parte Masnatta y añadió un consejo: preguntarle a ChatGPT cuáles fueron sus fuentes para arrojar determinada información. "Al entender esto, seremos más conscientes como usuarios de qué está pasando ahí", cerró.

Dejá tu comentario

Las más leídas

Te puede interesar