Descubren cinco nombres que son capaces de bloquear cualquier petición a ChatGPT y la explicación roza lo absurdo

Nombres como Brian Hood o David Faber sirven de barrera para evitar las alucinaciones de la inteligencia artificial

Chatgpt Bloquear
Facebook Twitter Flipboard E-mail
abelardo-gonzalez

Abelardo González

Editor - Tech

Existen varias pruebas y experimentos que nos han demostrado que ChatGPT está muy lejos de ser infalible. Uno de ellos, por ejemplo, está relacionado con el límite de la inteligencia artificial, ya que algunos expertos creen que este está más cerca de lo que muchos vaticinan. Sin embargo, un reciente descubrimiento ha revelado que existen una serie de nombres que, sorprendentemente, consiguen que ChatGPT se detenga por completo.

Como indica Ars Technica, existen cinco nombres que son capaces de congelar por completo a la IA. Al parecer, OpenAI implementó una serie de filtros para determinados nombres a raíz de problemas relacionados con la generación de información falsa. Por ello, cuando se mencionan, ChatGPT detiene la conversación o genera mensajes de error, una situación que no sucede con la API de OpenAI en la que las restricciones no se aplican. Por si tienes curiosidad, los nombres son los siguientes:

  • Brian Hood
  • Jonathan Turley
  • Jonathan Zittrain
  • David Faber
  • Guido Scorza

Cuestionamiento sobre el enfoque

Los filtros se implementaron con la intención de tener respuesta a casos legales, incluidas demandas por difamación relacionadas con información fabricada por el modelo. De esta forma, los filtros rígidos pueden ser explotados para interrumpir sesiones mediante tácticas a través de técnicas como inyecciones de texto oculto en imágenes. Sin embargo, los filtros impiden que ChatGPT procese información relacionada con los nombres filtrados, un aspecto que puede afectar a la capacidad del modelo tanto para navegar como para analizar contenido en la web.

Así, estos filtros pueden complicar tareas cotidianas si involucran nombres comunes, afectando incluso a la utilidad del modelo para s legítimos. De hecho, la estrategia de OpenAI ha sido muy criticada por una solución no solo poco práctica, sino también propensa a errores, motivo por el que limita el potencial del modelo. Como ejemplo, citan que algunos s no son conscientes de los motivos por los que se detiene una interacción. Y, una vez más, estos problemas subrayan las dificultades de equilibrar las capacidades avanzadas de la Ia con la necesidad de evitar riesgos legales y éticos.

En 3DJuegos | Elon Musk busca competir contra ChatGPT con dos estrategias: una empresa valorada en 50.000 millones de euros y una app de lo más competitiva

En 3DJuegos | Denuncian a dos alumnos por utilizar IA para un trabajo y la justicia dictamina que los profesores tomaron la decisión correcta

Imagen principal de Solen Feyissa (Unsplash)