Ya sea que se emplee como un chatbot para generar texto, para traducir o para el papeleo automatizado, ChatGPT ha estado creando un gran revuelo desde que, en noviembre de 2022, la empresa emergente estadounidense OpenAI puso a disposición del público el sistema de diálogo basado en texto.[1]
Sin embargo, la científica de datos Teresa Kubacka señaló que, a mediados de diciembre, ChatGPT a veces fabricaba referencias y que las llamadas "alucinaciones de datos" son peligrosas porque pueden tener un efecto considerable en el discurso de internet. Desde entonces, han continuado las discusiones sobre las consecuencias éticas y los desafíos de ChatGPT.
Thilo Hagendorff, Ph. D., investigador posdoctoral en aprendizaje automático en la Universidad de Tübingen, Alemania, dejó en claro en una rueda de prensa del Science Media Center que ChatGPT trae consigo una serie de desafíos éticos. No obstante, Hagendorff considera que el "gran enfoque en los aspectos negativos" es "difícil". Según su experiencia, los informes sobre ChatGPT suelen ser negativos.
"Pero también se deben considerar los aspectos positivos. En muchos casos, estos modelos lingüísticos nos permiten tomar mejores decisiones a lo largo de la vida. Definitivamente también son creativos, nos ofrecen soluciones creativas, nos enriquecen con un conocimiento infinito", dijo Hagendorff.
Aplicaciones de ChatGPT
La posible gama de aplicaciones para ChatGPT es amplia. En medicina, por ejemplo, respondió a las preguntas de los pacientes, realizó diagnósticos y creó pautas de tratamiento, lo que ayudó a ahorrar tiempo y recursos. Cuando se usó como un chatbot, ChatGPT pudo satisfacer las necesidades de los pacientes y brindar respuestas personalizadas. Su disponibilidad las 24 horas también podría ser beneficiosa para los pacientes, no obstante, debe garantizarse la protección de los datos sensibles de estos.
Dado que ChatGPT se basa en un modelo de aprendizaje automático que puede cometer errores, se debe garantizar la precisión y confiabilidad de la información proporcionada. La regulación es otro problema. Si bien programas como el verificador de síntomas Ada Health están especializados para el sector de la salud y han sido aprobados como dispositivos médicos, ChatGPT no está sujeto a dicha regulación. A pesar de esto, deben existir garantías para que ChatGPT se ajuste a los requisitos y cumpla con las leyes y reglamentos.
Fuera del sector médico, hay que resolver otros problemas éticos. Hagendorff precisó los siguientes puntos al respecto:
Discriminación, lenguaje tóxico y estereotipos: ocurren con ChatGPT porque los estímulos de entrenamiento del modelo lingüístico (es decir, el habla tal como se usa) también reproducen discriminación, lenguaje tóxico y estereotipos.
Riesgos de la información: ChatGPT se puede usar, por ejemplo, para encontrar información privada, confidencial o peligrosa. Al modelo lingüístico se le podría preguntar sobre las mejores formas de cometer determinados delitos.
Información verdadera o falsa: no hay garantía de que dichos modelos generen solo información correcta. También pueden entregar información sin sentido, ya que solo calculan la probabilidad de la siguiente palabra.
Riesgos de mal uso: ChatGPT podría usarse para campañas de desinformación. También es posible generar un código que puede usarse para ciertos ciberataques de diversos grados de peligrosidad.
Propensión a la humanización: la gente tiende a humanizar tales modelos lingüísticos. Esta antropomorfización puede conducir a un elevado nivel de confianza. La confianza del usuario también se puede utilizar para obtener acceso a información privada.
Riesgos sociales: podría haber pérdidas de empleo o cambios de empleo en todas las industrias que trabajan con textos.
Riesgos ecológicos: a menos que la energía utilizada para entrenar y operar dichos modelos se genere de manera respetuosa con el medio ambiente, la huella de dióxido de carbono podría ser bastante grande.
Desarrollo futuro
Stefan Heinemann, Ph. D., profesor de ética empresarial en la Universidad de Ciencias Aplicadas FOM en Essen, Alemania, considera que el desarrollo de ChatGPT es fundamental porque se está convirtiendo en una persona artificial. "Deberíamos considerar hasta dónde debería llegar ese desarrollo", subrayó Heinemann en el evento ChatGPT in Healthcare.
"Esto no significa que debamos descartar de inmediato las nuevas tecnologías como distópicas y preocuparnos de que el tema ahora se haya perdido porque las personas ya no escriben artículos para seminarios. En cambio, debemos encontrar un equilibrio", dijo Heinemann. Ahora hemos llegado a un punto de inflexión. El uso de sistemas técnicos para simplificar y reducir el trabajo de oficina o el uso de robots de enfermería es sin duda sensato.
Pero estas tecnologías no solo provocarán una eventual externalización de la burocracia, "sino que también empezaremos a externalizar el propio pensamiento". Hay una diferencia sutil, subrayó Heinemann. Se llegará al límite "donde lleguemos a un lugar en el que empecemos a exteriorizar aquello que nos define. Ese es el potencial de sentir y el potencial de pensar".
La prioridad ahora es manejar adecuadamente estas nuevas tecnologías. "No prohibiendo algo así, sino integrándolo inteligentemente", añadió Heinemann. Esto no quiere decir que no se pueda virtualizar "o que no podamos tener avatares. Son discusiones que todavía entendemos como ética de los videojuegos, pero esas discusiones ahora deben volver a tenerse", aclaró Heinemann.
Abogó por hablar más de responsabilidad y compatibilidad y no olvidar las habilidades sociales. "No solo depende de la tecnología y la precisión. También depende de lograr la precisión social y resolver los problemas entre todos, y no debemos delegar esto. Solo debemos delegar las cosas que nos agobian, que son innecesarias, pero no renunciar pensando en aras de la conveniencia". La tecnología siempre debe "seguir siendo un servidor de la causa", concluyó Heinemann.
Este artículo fue publicado originalmente en Medscape edición en alemán.
Para más contenido suscríbase a nuestros boletines y siga a Medscape en Facebook, Twitter, Instagram y YouTube.
CRÉDITO
Imagen principal: Rokas Tenys | Dreamstime.com
Medscape Noticias Médicas © 2023 WebMD, LLC
Citar este artículo: ChatGPT: entre la exageración, la controversia y los desafíos éticos - Medscape - 20 de marzo de 2023.
Comentario