Desarrollan un chatbot que hace de terapeuta online | Punto Biz
  • Dólar Banco Nación $861.50
  • Contado con liqui $1089.77
  • Dólar MEP $1053.46
  • Dólar Turista $1378.40
  • Dólar Libre $1050.00
  • Dólar Banco Nación $861.50
  • Contado con liqui $1089.77
  • Dólar MEP $1053.46
  • Dólar Turista $1378.40
  • Dólar Libre $1050.00

Lo nuevo

Cosa de locos

Desarrollan un chatbot que hace de terapeuta online

Desarrollan un chatbot que hace de terapeuta online

Por Redacción

La compañía de Bill Gates ya realizó una solicitud para patentar un chatbot que ofrece atención emocional.

Microsoft realizó una interesante solicitud de patente en los Estados Unidos, la cual evidencia que la compañía fundada por Bill Gates se encuentra desarrollando una aplicación orientada a ofrecer tratamiento terapéutico y estará potenciada por inteligencia artificial.

En el documento que fue presentado el pasado 7 de noviembre, este gigante tecnológico con sede en Redmond plantea un modelo de chatbot similar a ChatGPT, el cual sería capaz de construir un perfil de usuario basado en señales emocionales extraídas de las imágenes y luego genera un registro de memoria basado tanto en estas imágenes como en el perfil de quien la usa.

Para la empresa de software, la “inteligencia artificial (IA) se está volviendo cada vez más popular y se aplica en un número cada vez mayor de escenarios”.

Es por ello que la aplicación contará con una ventana de chat, un módulo de procesamiento y una base de datos de respuestas, y además será capaz de realizar pruebas psicológicas explícitas, así como realizar preguntas, monitorear respuestas y utilizarlas para aprender del paciente.

Microsoft busca que su terapeuta artificial proporcione “atención emocional” por medio de una conversación simulada, en la que los usuarios puedan usar texto, la voz e imágenes.

Un chatbot con capacidades terapéuticas

El terapeuta artificial evaluará a los usuarios usando un “algoritmo de puntuación predefinido por psicólogos y expertos” y en algunos casos, el chatbot podrá hacer sugerencias sobre cómo abordar algunos problemas.

La empresa incluso expone el ejemplo de una conversación en la que una persona dice que se «siente mal» y la IA le pregunta por qué. Este explica que tiene problemas con la familia y por eso se siente cansado, el chatbot como respuesta, le recomienda salir a correr 30 minutos para tomar un respiro.

Y aunque es prometedor, este tipo de avances generan algunas preocupaciones en la Organización Mundial de la Salud (OMS), que pidió tener cuidado en el uso de chatbots de inteligencia artificial en la atención médica. Esto, advirtiendo que los datos usados para entrenar estos modelos pueden estar “sesgados” y generar información engañosa que puede causar daño a los pacientes.

Microsoft no es la primera tecnológica que decide apostar por este tipo de desarrollos y de hecho, Apple, también ha mostrado interés en la creación de un servicio de salud y bienestar basado en una inteligencia artificial capaz de detectar tus emociones.

El proyecto es llamado internamente Quartz que tendrá como objetivo incentivar a los usuarios a mejorar sus hábitos alimenticios, ejercitarse y brindar recomendaciones para dormir mejor.

Los peligros de la antropomorfización de la inteligencia artificial

La constante interacción entre humanos y sistemas de inteligencia artificial o chatbots cada vez más avanzados, los cuales pueden dar la falsa sensación de entender y apoyar, ha provocado que algunos de sus usuarios generen fuertes vínculos con estos modelos que no tienen ningún tipo de emoción o generan algún tipo de empatía.

Y la antropomorfización de la IA es un proceso mediante el cual las personas atribuyen características y cualidades humanas a estos modelos, tratándolos como si fueran seres humanos reales. Esto incluye atribuir emociones, intenciones, pensamientos y una personalidad a la inteligencia artificial, a pesar de que estas no poseen estas características de manera genuina.

Además, puede ocurrir de manera consciente o inconsciente debido a que las interfaces de conversación y chatbots a menudo se diseñan para parecer más humanas, utilizando nombres, avatares y respuestas que imitan el lenguaje humano. Esto puede llevar a que los usuarios traten a la IA como si fuera un interlocutor humano y esperen respuestas emocionales.

De hecho, algunos chatbots se promocionan como compañeros de atención, fomentando relaciones de dependencia emocional con los usuarios. Esto plantea preguntas éticas sobre la manipulación y el abuso de la confianza del usuario, especialmente cuando la inteligencia artificial no puede proporcionar la empatía humana necesaria en momentos de crisis.

CONTENIDO EXCLUSIVO PARA SUSCRIPTORES.

Si querés ser protagonista de los Negocios necesitás información.
Si estás acá es porque necesitás esta información.

SUSCRIBITE

Por asesoramiento personalizado o consulta de Planes Corporativos escribinos a suscripcion@puntobiz.com.ar. Whatsapp al 3415034363.

Más info

Lo que tenés que saber de Lo nuevo

Las más leidas

Además

La sesión de tu cuenta se cerro por exceso de usuarios.

¿Querés recibir notificaciones de alertas?