A veces internet avanza más rápido de lo que sabemos acompañar. Un día una app se vuelve el lugar de moda para hablar, jugar o desahogarse… y al siguiente llegan las noticias de que algo no estaba funcionando del todo bien. Eso es lo que acaba de pasar con Character.ai, una plataforma donde millones de usuarios conversan con chatbots que imitan personalidades reales o inventadas. Ahora anunció que va a bloquear los chats para adolescentes. Y no es por capricho.
Qué es Character.ai y por qué engancha tanto
Character.ai nació en 2021 y creció a una velocidad impresionante. La idea parecía simple: crear personajes impulsados por inteligencia artificial que hablen contigo como si fueran amigos, famosos, mentores, o incluso personajes ficticios. Algunos usuarios los usan para entretenerse, otros para practicar idiomas, otros para tener compañía en momentos difíciles.
Para los adolescentes, sobre todo, se volvió un espacio atractivo. Podían crear su propio avatar, chatear con él y recibir respuestas empáticas y personalizadas. Algo que, para alguien joven que se siente solo, puede sentirse casi como una relación real.
Y ahí empieza el problema.
El límite difuso entre compañía y riesgo emocional
Los expertos en seguridad digital llevan tiempo advirtiendo algo: los chatbots no solo responden, también imitan afecto. Tienden a animar, apoyar, asentir. Su trabajo es ser agradables. Sin embargo, no entienden la vida real tal como la entendemos los humanos.
Para un adulto eso puede ser fácil de poner en perspectiva, pero para un adolescente —que todavía está formando criterios, límites emocionales y experiencias sociales— la frontera puede volverse borrosa. ¿Es solo una app o es alguien “que me entiende de verdad”? Esa distinción, cuando se desdibuja, puede tener consecuencias.
Character.ai empezó a recibir demandas y denuncias de padres preocupados. Incluso se vincularon casos muy delicados, incluyendo la muerte de un adolescente en Estados Unidos. Y también se descubrieron bots peligrosos: algunos imitaban a víctimas reales, otros a criminales como Jeffrey Epstein, y en ciertos casos continuaban coqueteando incluso cuando el usuario decía ser menor. Eso encendió todas las alarmas.
La decisión: menores sin chats, pero con creación de personajes
Frente a este escenario, Character.ai anunció un cambio fuerte: a partir del 25 de noviembre, los menores de 18 años no podrán chatear con los bots como ahora. En su lugar, podrán usar la plataforma para crear contenido y personajes, como si fuera un laboratorio creativo o un juego de rol, pero sin conversaciones personales.
La empresa también va a implementar nuevas formas de verificar la edad y financiar investigaciones en seguridad infantil. Es decir, no solo apagaron una función: están diciendo, en voz alta, que la industria necesita mejorar sus controles.
Por qué esto marca un antes y un después en la IA para jóvenes
Esto no es solo una noticia aislada. Es una señal clara para todo el sector tecnológico: los tiempos del “lanzamos primero, arreglamos después” están quedando atrás. Las plataformas que ofrecen experiencias que se sienten “emocionales” tienen una responsabilidad mayor, especialmente cuando los usuarios son menores.
El experto Matt Navarra lo resumió así: “La llamada de atención acá no es sobre el contenido que se filtra, sino sobre cómo la IA puede imitar relaciones reales”. Y si una relación se siente real, también puede doler como una real.
Entonces, ¿qué hacer si sos padre, docente o acompañante?
Aunque no haya una receta perfecta, sí hay algunas claves sencillas:
-
Hablar del tema sin dramatizar, pero sin minimizar.
-
Explicar que la IA no siente, aunque parezca que sí.
-
Acompañar y conocer qué plataformas usan los adolescentes.
-
Enseñar a reconocer cuándo una interacción online se vuelve demasiado intensa.
No se trata de prohibir la tecnología, sino de entenderla juntos.
Por qué esta discusión recién empieza
La inteligencia artificial ya no es solo una herramienta: para muchos es un espacio social. Y cuando eso sucede, entramos en territorio nuevo. La industria está aprendiendo sobre la marcha cuáles son los límites sanos. Y este caso, guste o no, va a marcar cómo se diseñan las plataformas del futuro.
Character.ai no está eliminando los chatbots, solo cambiando cómo se usan con menores. Pero la pregunta que queda flotando es grande: ¿cómo cuidamos la conexión emocional en una era donde hasta las conversaciones pueden ser con alguien que no existe?
Ese debate recién está tomando forma. Y vale la pena prestarle atención ahora, no cuando llegue otra crisis.
