OpenAI, la empresa detrás de ChatGPT, eliminó su herramienta de clasificación de IA para informar a los usuarios si el texto fue generado por inteligencia artificial (IA) debido a la “baja precisión”.
La empresa anunció en un blog el 20 de julio que la herramienta ya no está disponible. La compañía dijo que está comprometida a ayudar a los usuarios a saber si su contenido es generado por IA y utilizará los comentarios y la investigación adicional para lograrlo.
La herramienta de clasificación se lanzó originalmente a fines de enero cuando ChatGPT comenzó a ganar popularidad. OpenAI mencionó en ese momento que la tecnología próspera indicó algunas preocupaciones.
“Creemos que los buenos clasificadores pueden informar acciones de mitigación contra afirmaciones falsas de que los textos generados por IA fueron escritos por humanos. Los ejemplos incluyen la ejecución de campañas de desinformación automatizadas, el uso de herramientas de IA para la deshonestidad académica y el posicionamiento de chatbots de IA como humanos”.
ChatGPT y otros generadores de texto han generado preocupaciones generalizadas entre los maestros de que podrían usarse para plagiar a los estudiantes.
Los administradores escolares todavía están debatiendo cómo hacer ChatGPT y prohibir su uso en las aulas. El estado de Nueva York prohibió la aplicación en enero, pero luego la rescindió en mayo y optó por usarla como una herramienta para ayudar a la educación.
ChatGPT no es el tramposo que necesitas, advierte la Universidad de Manitoba.
ChatGPT utiliza IA generativa, que significa inteligencia artificial que puede generar su propio contenido al predecir la probabilidad de que sigan dos palabras. Estos modelos se alimentan de texto de Internet y de la historia literaria humana para mejorar el contenido que crean.
Los legisladores todavía están luchando con la forma exacta de regular la nueva tecnología, y algunas de las personas detrás de su creación piden más restricciones para evitar peligros potenciales, incluida la aniquilación humana.
Las principales empresas de tecnología, incluidas Microsoft, Amazon, Google y Meta, acordaron recientemente “medidas de protección” voluntarias, incluida la inclusión de una marca de agua digital en las imágenes generadas por IA por parte de la Casa Blanca, y el Consejo de Seguridad de la ONU celebró su primera reunión sobre IA la semana pasada.
© 2023 Noticias globales, Corus Entertainment Inc.
Be First to Comment