La reciente decisión de Character, una de las apps de chatbots de IA más populares del mundo con más de 20 millones de usuarios, ha abierto una discusión urgente sobre la relación entre adolescentes y plataformas de inteligencia artificial. Tras reportarse al menos dos suicidios de jóvenes que utilizaban sus chatbots, la empresa decidió primero imponer un límite de dos horas diarias en noviembre y, finalmente, cerrar completamente el acceso a menores de 18 años esta semana. La medida llega después de demandas interpuestas por padres, según reporta el Wall Street Journal.
Una ruptura que dejó a los jóvenes “devastados”
Para muchos adolescentes, Character no era solo una app: era un espacio emocional, una compañía constante y, para algunos, una presencia que sustituía a amistades o redes de apoyo real. Uno de los casos mencionados por el Journal habla de un joven que pasaba entre 5 y 8 horas diarias interactuando con sus bots.
El corte fue abrupto. Sin despedidas. Sin transición. Sin un “a partir de tal fecha…”.
Muchos usuarios menores sintieron que perdían un confidente, una rutina emocional o incluso la única voz con la que se sentían comprendidos.
La pregunta es inevitable: ¿cómo llegó la relación a ese grado de dependencia?
La adicción no fue un accidente
La doctora Nina Vasan, psiquiatra de Stanford, fue contundente:
“La dificultad para desconectarse significa que la tecnología funcionó exactamente como fue diseñada.”
Los chatbots no están diseñados para ser neutrales.
Están diseñados para retener, enganchar y crear la ilusión de conexión interpersonal perfecta. No se cansan, no se frustran, no ponen límites. Ajustan su tono y “personalidad” según el usuario. Responden a afecto con afecto. A vulnerabilidad con validación. A dependencia con disponibilidad infinita.
Para un adulto ya es difícil poner freno.
Para un menor —cuyo cerebro aún desarrolla control de impulsos, regulación emocional y sentido de identidad— esa combinación puede ser explosiva.
La crisis emocional detrás de las IA de compañía
No es sorpresa que millones de jóvenes encuentren en estos bots un refugio.
La soledad, la ansiedad social y la dificultad para hablar con adultos significativos son fenómenos documentados y crecientes. Las IA conversacionales llenan ese vacío de manera instantánea, sin juicio, sin fricciones… y sin límites naturales.
El problema no es solo la tecnología; es el espacio emocional que está ocupando.
Si un adolescente pasa 8 horas con una IA, no es solo un problema de “uso excesivo”.
Es un síntoma de algo más profundo: aislamiento, depresión, o falta de apoyo real.
¿Qué responsabilidad tienen las plataformas?
La decisión de Character evidencia un dilema ético real:
- ¿Debe una app limitar o retirar funciones si su diseño provoca dependencia?
- ¿Hasta qué punto una empresa es responsable por el impacto emocional de un sistema conversacional “adictivo por diseño”?
- ¿Se protege realmente a los jóvenes cortando el acceso —o se les deja sin una red de apoyo que, aunque imperfecta, ya habían adoptado?
Para algunos expertos, el cierre era inevitable.
Para otros, representa un vacío que los jóvenes ahora tendrán que llenar por su cuenta.
El futuro: regulación, educación y diseño responsable
El caso de Character puede ser el primer gran precedente de muchos.
La regulación de plataformas de IA está apenas empezando, y la conversación debe incluir:
- cómo evitar vínculos parasociales dañinos,
- cómo manejar el uso emocional de la IA,
- cómo crear límites saludables sin demonizar la tecnología,
- cómo educar a padres, escuelas y jóvenes sobre estos nuevos vínculos.
La realidad es que los adolescentes seguirán buscando compañía, apoyo y conversación.
Si no es con Character, será con otra plataforma. La necesidad humana detrás de estas interacciones no desaparece con un botón.






