Azure AI Content Safety es la solución de Microsoft para frenar el contenido perjudicial en Internet

Azure AI Content Safety es la solución de Microsoft para frenar el contenido perjudicial en Internet

La nueva herramienta de seguridad de Microsoft, Azure AI Content Safety, detecta contenido dañino con la IA. Se trata de un servicio creado para identificar contenido malicioso que haya sido creado por otros usuarios, tanto en aplicaciones como otros servicios.

Este servicio de seguridad electrónica tiene la capacidad de detectar imágenes y textos en los que se incorporen elementos ofensivos, riesgosos y que puedan atentar socialmente contra un individuo y un grupo.

Las imágenes hechas por IA tienen los días contados. Esta herramienta las detectará todas

Así mismo, colocan a la disposición de los usuarios un estudio interactivo de seguridad de contenido, que permite ver, explorar y probar código de muestra que permita detectar segmentos maliciosos.

Por qué usar Azure AI Content Safety

El contenido malicioso que podemos encontrar en la web y en las redes sociales va más allá de generar incomodidad en un usuario. Este tipo de publicaciones tienen la capacidad de afectar en gran medida la imagen de una empresa, una marca, un producto y socavar la confianza del cliente.

Este tipo de acciones tienen un impacto económico en la salud financiera de empresas y organizaciones. Esta herramienta puede detectar ese tipo de publicaciones que van más allá de la mano humana, que es creado por inteligencia artificial, evitando que las personas puedan estar expuestas a información errónea y evitar daños morales y de reputación.

La herramienta tiene la capacidad de gestionar distintas categorías de contenido, idiomas y amenazas, pudiendo moderar tanto contenido en imágenes como textos, lo que propone una redefinición de la seguridad en línea.

Cuenta con una métrica única de severidad, esto significa que podrá ser clasificado un contenido en una escala que va desde 0 a 7, siendo 7 el nivel más dañino. Así mismo, podrá ejecutar pruebas rápidas y análisis avanzados de hasta ocho niveles.

El contenido puede ser clasificado en diferentes categorías, que van desde contenidos con discurso de odio, violencia, autolesión y de índole sexual.

Para detectar este tipo de contenido en imágenes, Azure AI Content Safety emplea algoritmos avanzados de IA que permiten escanear, analizar y moderar contenido visual.

Las pruebas de esta herramienta se implementaron en el sector educativo de Australia del Sur. Allí se llevó a cabo la instalación de un chatbot en el que participaron 1.500 alumnos y profesores de varias escuelas, teniendo un resultado de alta calidad bloqueando entradas inapropiadas y contenido potencialmente ofensivo.

El objetivo principal de Microsoft con este producto, es lograr que Azure AI Content Safety pueda ser integrado, a través de API, en aplicaciones y plataformas de empresas y servicios privados. Este método permitiría que se pueda realizar un análisis rápidos y ofrecer un reporte de seguridad.

Azure AI Content Safety Studio

De forma complementaria, los usuarios tiene acceso al estudio virtual de Azure AI Content Safety, allí podrás acceder a una interfaz basada en la web que permitirá realizar análisis y pruebas rápidas a todo tipo de contenido.

Cuenta con un panel de monitoreo, para poder rastrear y administrar los diferentes estándares de seguridad de contenido. Podrás ajustar y personalizar la herramienta según las necesidades de control de seguridad, para un seguimiento optimizado.

7 herramientas de IA para crear presentaciones profesionales en minutos

Conoce más sobre el equipo de El Grupo Informático y nuestra política editorial. Puedes seguirnos en Facebook, X, Instagram, WhatsApp, Telegram o recibirnos en tu correo para no perderte las últimas noticias de tecnología.
  • Ver Comentarios