

De la redacción
El Buen Tono
Meta Platforms anunció este miércoles la implementación de un nuevo modo “incógnito” en WhatsApp, diseñado para que los usuarios puedan conversar de forma privada y temporal con su asistente de inteligencia artificial, Meta AI.
La compañía explicó que esta nueva función busca responder a las crecientes preocupaciones sobre privacidad y el uso de información personal compartida en chats con sistemas de inteligencia artificial.
De acuerdo con Meta, las conversaciones realizadas en este modo especial serán procesadas dentro de un “entorno seguro” al que ni siquiera la propia empresa podrá acceder. Además, los mensajes no quedarán almacenados de forma predeterminada y desaparecerán una vez que el usuario abandone la sesión.
La medida llega en medio de cuestionamientos globales sobre cómo las plataformas de IA utilizan enormes cantidades de datos para entrenar sus modelos, incluyendo información personal, financiera, médica o laboral compartida por los usuarios durante conversaciones con chatbots.
Will Cathcart, jefe de WhatsApp en Meta, reconoció que cada vez más personas realizan preguntas delicadas a sistemas de inteligencia artificial y consideran importante mantener esa información lejos de las empresas tecnológicas.
El directivo señaló que el modo incógnito también contará con filtros de seguridad para impedir respuestas relacionadas con temas considerados dañinos. Según explicó, el sistema primero tratará de orientar al usuario hacia información útil y posteriormente podría negarse a responder o incluso dejar de interactuar completamente.
Meta también confirmó que en este modo los usuarios únicamente podrán enviar y recibir mensajes de texto, ya que no estará permitido subir ni generar imágenes. Asimismo, será obligatorio confirmar la edad del usuario, debido a que la plataforma prohíbe el acceso a menores de 13 años.
La nueva herramienta coloca a WhatsApp en una competencia directa con otros chatbots como Gemini de Google y ChatGPT, que ya cuentan con opciones similares para desactivar historiales y limitar el uso de datos personales en el entrenamiento de inteligencia artificial.
