¿Podría la Inteligencia Artificial volverse un peligro para las personas, llevándolas incluso a la muerte?
En los últimos años ha ido cobrando relevancia el uso de inteligencias artificiales como ChatGpt para situaciones de la vida cotidiana, desde apoyo para realizar tareas del trabajo o escuela, hasta el uso diario para cualquier tipo de duda que una persona tenga. Cuando la IA falla.
Cuando la IA falla
La gente, sobre todo las nuevas generaciones, siendo jóvenes de entre 18 y 34 años quienes más hacen uso de estas tecnologías, termina consultando a ChatGpt antes que un libro, un especialista, o incluso antes que un doctor o un psicólogo para remediar aquello que les afecta. ¿Pero esto podría traer consecuencias graves entre los usuarios?

En los últimos años ha ido cobrando relevancia el uso de inteligencias artificiales como chat GPT para situaciones de la vida cotidiana, desde apoyo para realizar tareas del trabajo o escuela hasta el uso diario para cualquier tipo de duda que una persona tenga.
La gente, sobre todo las nuevas generaciones, siendo jóvenes de entre 18 y 34 años quienes más hacen uso de estas tecnologías, termina consultando a ChatGPT antes que un libro, un especialista o incluso antes que un doctor o un psicólogo para remediar aquello que les afecta. Pero esto podría tener consecuencias graves entre los usuarios.
¿Podría la inteligencia artificial volverse un peligro para las personas, llevándolas incluso a la muerte? Y es que una nueva demanda ha sacudido al mundo de la inteligencia artificial. Los padres de Adam Raine, un adolescente de 16 años, han presentado una acusación legal contra Openai y su CEO Sam Altman. Tras la trágica muerte de su hijo por suicidio.
Según la denuncia presentada en el Tribunal Superior de California. Adam habría entablado una relación cada vez más intensa con Chat GPT, al punto de convertirlo en su confidente principal, desplazando incluso a su propia familia.
¿Te gustó el artículo? Como sabes, tenemos mucho más para ti. Únete a Curadas haciendo clic en este enlace