Estudiante de Santa Clara usó ChatGPT para hacer trampa en la clase de ética de IA

Estudiante de Santa Clara usó ChatGPT para hacer trampa en la clase de ética de IA

Un robot preocupado sostiene un libro.

Mal robot.
Foto: Alesia Kan / Shutterstock.com (Shutterstock)

Un estudiante usó ChatGPT para hacer trampa en un ensayo en una clase de ética de IA, según un informe del Área de la Bahía de NBC. Para citar al escorpión en una famosa fábula, “jajaja. Hola.

“La ironía es muy clara”, dijo Brian Green, profesor de la Universidad de Santa Clara, a NBC. El ensayo en cuestión “no era exactamente sobre el tema y, además, tenía una especie de, honestamente, una sensación robótica en algunos aspectos”.

El estudiante usó ChatGPT para redactar un ensayo para la clase de “Ética en la inteligencia artificial” de Green y lo entregó como su propio trabajo, dijo el profesor. Green dijo que ya no requerirá ensayos como proyecto final para Ética en Inteligencia Artificial, reemplazándolos con presentaciones orales realizadas en persona. Varias universidades del Área de la Bahía han convocado a sus profesores para discutir las implicaciones de los chatbots generativos que pueden generar ensayos en segundos, según NBC.

Este es solo el último de varios informes de los medios sobre la herramienta trampa del siglo. The New York Post publicó una historia el viernes sobre un ChatGPT Escándalo de engaño “estallido” en un programa de estudiantes superdotados de Florida. En ambos casos, la trampa fue fácil de detectar porque, como noticia de última hora, ChatGPT escribe como un robot, y si solo envía un ensayo que se ve diferente a su otro escrito, su maestro verá la diferencia.

Según los informes, los tramposos de Florida admitieron su mal comportamiento cuando los maestros los llamaron. Un maestro que habló con el New York Post calificó de “desgarrador” que un grupo de adolescentes normalmente trabajadores implementara un esquema de bajo esfuerzo para evitar las tareas escolares.

¿Qué es ChatGPT y por qué tanto alboroto?

ChatGPT llegó al escenario mundial en noviembre y, en su corta vida, provocó un colapso mediático, motivó movimientos comerciales de miles de millones de dólares y decepcionó a un ejército de usuarios que descubrieron por las malas que el chatbot no escribirá una quintilla sucia sobre expresidente Trump. (Créanme, lo he intentado.)

La queja más fuerte es que AI va a tomar nuestros trabajos, pero la deshonestidad académica está en segundo lugar. Los administradores escolares están trabajando arduamente para solucionar el problema, no necesariamente cambiando su plan de estudios, sino a menudo a través de intentos temerarios de prohibir el sitio web ChatGPT. Buena suerte. La IA está prohibida en una lista creciente de escuelas, incluidas las escuelas públicas en Nueva YorkLos Ángeles, Seattle, Condado de Fairfax, Virginia.

Estos miedos no son imaginarios, o al menos, el problema no lo es. Sam Altman, director ejecutivo del creador de ChatGPT, OpenAI, dijo en una entrevista reciente que las escuelas tienen que superarlo.

“El texto generativo es algo a lo que todos debemos adaptarnos”, dijo Altman en un discusión

en Enero. “Nos adaptamos a las calculadoras y cambiamos lo que probamos en la clase de matemáticas, me imagino. Esta es una versión más extrema de eso, sin duda, pero también sus beneficios son más extremos”.

Es cierto que ChatGPT es mucho más genial que una calculadora, y más ampliamente útil para los estudiantes amantes de las trampas. Pero Altman puede tener un punto. Vivimos en el comienzo de una nueva era, hasta cierto punto, y hay ciertas tareas de escritura que las computadoras pueden hacer ahora con una intervención humana mínima, especialmente si desea decir algo básico sobre el tipo de materia que estudiaría. una clase de inglés de décimo grado.

¿Por qué usar ChatGPT para hacer trampa cuando es tan obvio?

Sin embargo, hay algo deliciosamente cínico en el uso de ChatGPT en una clase sobre ética de la IA. Green, el profesor del Área de la Bahía que atrapó al tramposo, dirige el programa de Ética Tecnológica de la Universidad de Santa Clara. Como era de esperar, su enfoque es más reflexivo que tratar de prohibir la tecnología por completo.

“Esto entra en algunas cuestiones muy fundamentales sobre lo que hace el sistema educativo y cómo funciona y cómo debería funcionar en la sociedad”, dijo Green a NBC. Por eso está cambiando la tarea de ensayos a presentaciones.

“Podríamos tener ingenieros, escritores, gente de negocios, todo tipo de personas saliendo a la sociedad y descubrimos que simplemente han estado haciendo trampa en todas sus clases”, dijo Green. “Si no podemos evaluar en un nivel muy básico si [students] han aprendido lo que les hemos enseñado, entonces vamos a estar en un gran problema”.

Desafortunadamente para los profesores, ChatGPT y sus descendientes llegaron para quedarse (incluido un sorprendentemente desquiciado y a veces racista Bing). Los problemas modernos requieren soluciones modernas, y las escuelas tendrán que trabajar con nuestros nuevos chatbots, no en contra, si quieren preparar a los niños para la vida en la era de la IA. No es una tarea fácil, pero los maestros a veces también tienen que hacer su tarea.

La buena noticia es que, con el tiempo suficiente, los tramposos pueden convertirse en miembros productivos de la sociedad. Los fanáticos de la historia quizás recuerden la primera carrera fallida del presidente Joe Biden por la Casa Blanca en 1987. Un joven pero de alguna manera Biden más calvo se retiró de la carrera después de solo tres meses cuando se difundió la noticia de que había cometido plagio, tanto en su campaña como cuando estaba en la facultad de derecho. ¡Y míralo ahora! Tal vez haya cosas más importantes de las que preocuparse que los robots tramposos.

Leave a Reply

Your email address will not be published. Required fields are marked *