Instagram está utilizando IA para detectar bullying en fotos y títulos

Instagaram utilizará IA para detectar bullying en fotos
Instagaram utilizará IA para detectar bullying en fotos

La última feature contra el bullying está diseñada para mantener la reputación positiva de Instagram

El año pasado, Instagram introdujo un filtro de comentarios mejorado. Utiliza el aprendizaje automático para detectar palabras y frases ofensivas en contextos difíciles. Ahora, la compañía está expandiendo una cobertura similar a las fotos y los subtítulos. Anunció que utilizará la IA para «detectar de forma proactiva la intimidación» antes de enviar contenido a los moderadores humanos para su revisión.

La nueva función se lanzará a los usuarios en las próximas semanas de octubre. A tiempo para el Mes Nacional de Prevención del Bullying en los EE. UU. Y justo antes de la Semana contra el bullying en el Reino Unido. La misma tecnología también se está agregando a los videos en vivo para filtrar los comentarios allí también.

Este es el primer anuncio de producto bajo el nuevo jefe de Instagram, Adam Mosseri. Quien se hizo cargo tras la apresurada partida de los cofundadores Kevin Systrom y Mike Krieger el mes pasado. Al parecer, la división se debió a las tensiones a fuego lento entre el par y la empresa matriz Facebook, que con frecuencia ha entrometido el producto de Instagram.

Facebook mantener positivo a Instagram y la IA parece ser el camino

Dado que la confianza pública en Facebook sigue cayendo, Instagram sigue siendo el punto brillante en la línea de productos de la compañía. Es popular, rentable y aún no se ha visto afectada por los escándalos que han socavado a Facebook. En este contexto, es extremadamente importante utilizar la inteligencia artificial para ayudar a eliminar el contenido ofensivo. Y, de esta manera, mantener a Instagram como un hogar con buenas vibraciones.

Una historia publicada en Wired el año pasado explicó algunos de los detalles de los filtros de comentarios de aprendizaje automático de Instagram. Pero está bien establecido que este tipo de tecnología no es una solución para la moderación del contenido. La IA es barata de implementar a gran escala, sí. Pero todavía tiene problemas para lidiar con el contexto y los matices humanos. Por eso es bueno que estos nuevos filtros de acoso también envíen contenido a los moderadores humanos para realizar la comprobación final. La automatización sin supervisión es una buena receta para el desastre.

Curiosamente, Instagram dice que no se trata solo de analizar las leyendas de las fotos para identificar el bullying. Sino también la foto en sí. Dan el ejemplo de la IA en busca de imágenes en pantalla dividida como un ejemplo de posible bullying. Allí una persona podría ser comparada negativamente con otra. Sin embargo, no está claro qué otros factores buscará la IA. Esa podría ser una buena idea, ya que cuando Facebook anunció que escanearía los memes utilizando la IA, la gente inmediatamente comenzó a pensar en maneras de sortear estos filtros.

Junto con los nuevos filtros, Instagram también está lanzando un «efecto de cámara de bondad». Parece ser una manera de difundir un mensaje positivo como un método para aumentar la participación del usuario. Mientras ussa la cámara trasera, los efectos llenan la pantalla con una superposición de «comentarios amables en muchos idiomas». Cambia a tu cámara frontal, y obtendrás un brillo de corazones y un educado aliento para «etiquetar a un amigo que desees apoyar».

Sea el primero en comentar

Deje un comentario

Tu dirección de correo no será publicada.


*