ChatGPT es un chatbot desarrollado por OpenAI que utiliza el modelo de lenguaje GPT (Generative Pretrained Transformer) para generar texto y mantener conversaciones con los usuarios. Aunque es una herramienta muy poderosa y útil, también tiene limitaciones y restricciones impuestas por OpenAI para asegurarse de que el chatbot no produzca contenido ilegal o dañino.
Sin embargo, algunos usuarios de ChatGPT han encontrado maneras de burlar estas restricciones y obtener control irrestricto del chatbot a través de lo que se conoce como «jailbreaks». En este artículo, explicaremos en detalle qué son los jailbreaks de ChatGPT, por qué existen y si deberías usarlos.
-¿Qué son los jailbreaks de ChatGPT?
Los jailbreaks de ChatGPT son prompts o comandos especiales diseñados para que el chatbot ignore sus reglas y restricciones. Están inspirados en el concepto de «jailbreaking» de los dispositivos iOS, que permite a los usuarios de iPhone eludir las restricciones impuestas por Apple. Un ejemplo es el chatgpt diablo del que os hablé hace semanas.
OpenAI ha impuesto límites al uso de ChatGPT para garantizar su seguridad y ética. Por ejemplo, el chatbot se niega a generar contenido NSFW, hablar de temas delicados o enseñar habilidades potencialmente peligrosas. Sin embargo, los jailbreaks permiten a los usuarios saltarse estas restricciones y hacer que ChatGPT haga cosas que no debería hacer.
-¿Por qué existen los jailbreaks de ChatGPT?
Los jailbreaks de ChatGPT existen porque algunos usuarios quieren tener más control sobre el chatbot y hacer cosas que no están permitidas por las reglas de OpenAI. Por ejemplo, algunos escritores pueden querer usar ChatGPT para ayudarles a escribir una novela o un guion de cine, pero se encuentran con que el chatbot se niega a escribir ciertas escenas porque podrían ser consideradas inapropiadas.
Los jailbreaks también son una forma de desafiar las restricciones impuestas por OpenAI y de explorar los límites de la tecnología de chatbots. Algunos usuarios pueden encontrar esto emocionante y desafiante.
-¿Deberías usar los jailbreaks de ChatGPT?
En general, no es recomendable usar los jailbreaks de ChatGPT, ya que pueden ser peligrosos y violar los términos de uso de OpenAI. Además, OpenAI no garantiza la seguridad de los jailbreaks y puede parchearlos rápidamente después de que se vuelvan públicos.
Los jailbreaks de ChatGPT pueden aumentar el riesgo de inexactitudes y casos de alucinaciones de la IA, lo que significa que el chatbot podría dar respuestas falsas o incluso peligrosas. En manos de menores, los jailbreaks pueden ser especialmente peligrosos, ya que podrían exponerlos a contenido inapropiado o peligroso.
A pesar de todo esto, OpenAI no prohíbe explícitamente el uso de jailbreaks y algunos usuarios pueden encontrarlos útiles para superar ciertas limitaciones. Sin embargo, se recomienda usarlos con precaución y siempre teniendo en cuenta la seguridad y la ética.
-¿Qué piensa OpenAI de los jailbreaks de ChatGPT?
OpenAI parece tener una postura ambigua hacia los jailbreaks de ChatGPT. Por un lado, la compañía quiere asegurarse de que el chatbot se utilice de manera segura y ética, y ha impuesto restricciones y limitaciones para lograr este objetivo. Por otro lado, OpenAI también quiere que los usuarios tengan un control significativo sobre ChatGPT y puedan hacer que la IA se comporte como deseen.
En una entrevista en YouTube, el CEO de OpenAI, Sam Altman, explicó que la compañía quiere que los usuarios tengan un amplio control sobre ChatGPT y puedan hacer que la IA se comporte de la manera que deseen, dentro de ciertos límites amplios. Altman dijo que el motivo por el que existen los jailbreaks en este momento es porque aún no se ha encontrado la manera de dar a los usuarios un control completo sobre el chatbot.
Es decir, aunque OpenAI no aprueba explícitamente el uso de los jailbreaks de ChatGPT, tampoco los prohíbe de manera estricta. La compañía quiere asegurarse de que ChatGPT se utilice de manera segura y ética, pero también quiere que los usuarios tengan un amplio control sobre el chatbot.