Facebook anunció hoy que implementará nuevos recursos y herramientas de inteligencia artificial en su servicio de transmisión en vivo Facebook Live y de mensajería, Messenger, para prevenir casos de suicidio y "ayudar a construir una comunidad más segura tanto fuera como dentro de la plataforma".
Según explicó la empresa, se incorporarán herramientas de prevención en tiempo real, soporte por parte de organizaciones especializadas, y patrones de reconocimiento asistidos por inteligencia artifical que identifiquen publicaciones que incluyan "expresiones de suicidio".
De esta forma, un equipo de operaciones revisará esas publicaciones y, si es apropiado, proveerá recursos a la persona que publicó el contenido, incluso si aún no ha sido reportada por otro contacto. Facebook indicó que estas pruebas las está realizando de forma preliminar en Estados Unidos, pero que luego serán ampliadas a otros países.
La red social ya ofrece la posibilidad de que un usuario reporte a un equipo especializado (disponible las 24 horas) la publicación de uno de sus contactos si considera que es preocupante porque se trata de su salud o estado de ánimo. Asimismo, sugiere una línea de ayuda y da consejos para quienes expresen pensamientos suicidas dentro de la plataforma (https://www.facebook.com/help/594991777257121/)