ChatGPT está generando artículos completos de The Guardian que, en verdad, nunca fueron publicados este problema podría agravarse si la tecnología actual se adopta como tecnología de los motores de búsqueda.
ChatGPT y sus variantes, incluyendo el chatbot de Bing, se han transformado en un recurso sumamente beneficioso para usuarios de todo tipo en un corto período de tiempo, y lo serán aún más en el porvenir. No obstante, durante estas fases iniciales en las que los usuarios están explorando en profundidad sus capacidades, también se están exponiendo muchas de sus limitaciones.
Es que ChatGPT no solo proporciona datos importantes y pertinentes, sino que también está enfrentando un inconveniente que, de no ser resuelto a tiempo, resultará especialmente difícil. El chatbot de OpenAI está respondiendo a los usuarios con información falsa y desinformación, lo cual se está transformando en un asunto verdaderamente preocupante.
En realidad, ChatGPT está generando artículos completos de The Guardian que, en verdad, nunca fueron publicados, lo que implica que tanto los usuarios como el propio ChatGPT no puedan distinguir de manera confiable entre la realidad y la ficción. Esto supone un problema enorme no solo para la credibilidad de la tecnología de ChatGPT, sino también para que los usuarios confíen en que el chatbot no se convierta en otra fuente de desinformación que aparente ofrecer contenido confiable y valioso.
Además, este problema podría agravarse si la tecnología actual se adopta como tecnología de los motores de búsqueda, proporcionando información que aparentemente proviene de fuentes confiables, pero que en realidad son creaciones del propio ChatGPT.
Se ha discutido ampliamente sobre la tendencia de la inteligencia artificial generativa de fabricar datos y sucesos. No obstante, esta característica particular es especialmente inquietante para las empresas de noticias y los periodistas, cuya inclusión otorga legitimidad y relevancia a una fantasía escrita de manera convincente.
Esto plantea nuevas incógnitas para los lectores y el ecosistema de la información, sobre si es posible confiar en las referencias de alguna forma. Además, podría alimentar teorías de conspiración en temas delicados que en realidad nunca existieron.
Además, esto no se limita únicamente a la invención de artículos simples. Según Futurism, varios periodistas de USA Today se quedaron perplejos al descubrir que ChatGPT había presentado citas completas de estudios de investigación sobre cómo el acceso a armas no aumenta el riesgo de mortalidad infantil. Sin embargo, los estudios mencionados en las notas de ChatGPT nunca existieron, eran ficticios.
Para empeorar la situación, ChatGPT se defendió y afirmó que las referencias proporcionadas eran auténticas y provenían de revistas científicas con revisión por pares. No obstante, esto era falso.
La solución a este problema no está clara, al igual que el responsable del mismo. Ahora es responsabilidad de las empresas que desarrollan la inteligencia artificial abordar este problema y encontrar una solución adecuada.
Fuente: https://hipertextual.com/