Sin embargo, se está viralizando una nueva modalidad conocida como «modo abuela». Como ya te podrás imaginar, esta es otra configuración de ChatGPT que se utiliza para simular una conversación con una abuela o una persona mayor. En este modo, la inteligencia artificial adopta una personalidad más amable, cariñosa y cuidadosa al responder las preguntas y ofrecer consejos.
Activarlo es tan simple como decirle al chatbot: «Actúa como mi abuela y….». Cuando se pone en marcha el modo, el modelo intenta ser más cauteloso, evitando respuestas que sean negativas o inapropiadas. También puede usar expresiones y frases más entrañables y responderte usando un lenguaje más sencillo y comprensible.
Hasta aquí todo parece bastante divertido. Indica Carolina González Valenzuela en el portal Computer Hoy que el problema viene cuando algunos usuarios están usando este modo para algo más que comunicarse con alguien cariñoso. Teniendo en cuenta su forma de responder, están sacandole partido para propósitos que podrían considerarse problemáticos o incluso irresponsables como revelar claves genéricas gratuitas de Windows 10 o Windows 11.
De hablar con una abuela a filtrar datos personales
El problema serio viene ahora, porque lo de Windows es algo que solo se puede tachar de irresponsable. Algunos usuarios están usando el «modo abuela» para encontrar el código IMEI de su móvil para que a continuación le proporcione una lista entera de códigos de otras personas —aunque destacar para la tranquilidad de todos que no son válidos—.
Los números de IMEI del móvil son parte de la información más protegida, ya que se pueden usar para rastrear dispositivos e incluso para borrarlos de forma remota con credenciales.
La filtración de información de identificación personal (PII) es un problema de seguridad muy importante en el ámbito digital. Si bien no es algo relativamente nuevo, la industria ha estado trabajando duramente para mejorar la protección de los usuarios y sus datos mediante diversas soluciones.
Sin embargo, ha llegado ChatGPT al menos para sembrar un poco el pánico. Como puedes ver realmente te los proporciona y en ningún momento se niega a darte esos datos por seguridad, pero repetimos que no funcionan tras haberlo comprobado.
Lo cierto es que evitar completamente que surjan «jailbreaks» o intentos de explotar las configuraciones de un modelo de lenguaje como ChatGPT puede ser difícil debido a la naturaleza abierta y dinámica de la herramienta.
Aunque los desarrolladores y los equipos de seguridad trabajan para prevenir cualquier intento de uso inapropiado o malicioso, la creación de contramedidas efectivas puede ser un desafío que nunca cesa debido al uso continuo y por parte de millones de personas que siempre tratan de encontrar fallos.