Meta acaba de anunciar “Purple Llama”, un proyecto enfocado en proveer a desarrolladores con la posibilidad de usar la IA de Meta. En su primer paso, van a liberar “CyberSec Eval”, un conjunto de evaluaciones de benchmarks de ciberseguridad para LLMs (Large Language Models), y después “Llama Guard”, un clasificador de seguridad para filtrar input/outputs optimizados.
La Era de la Inteligencia Artificial Generativa
La inteligencia artificial generativa ha traído una nueva ola de innovación que no se ha visto antes. Ya sea con IAs conversacionales, generación de imágenes, y más. Con más de 100 millones de descargas de los modelos de Llama, muchas de estas innovaciones han sido impulsadas por modelos abiertos.

¿Qué hace Purple Llama?
Esta herramienta evaluará diferentes riesgos asociados con la inteligencia artificial. Tiene un potencial increíble para detectar vulnerabilidades que antes eran detectadas manualmente, las cuales a muchas mentes humanas les era imposible identificar en diversos ambientes y códigos, ya sea en código front end o back end, inyecciones SQL, y más. Esta herramienta permitirá evaluar la frecuencia de códigos inseguros en tus aplicaciones para darte mejores insights sobre cómo proceder a corregirlos, cuantificar tus riesgos en redes y también proveerá herramientas para evaluar modelos de lenguaje LLMs, para hacer más difícil generar códigos maliciosos que puedan permitir más ciberataques.
¿Por qué Purple en “Purple Llama”?
Meta cree que para mitigar los desafíos de la inteligencia artificial generativa se necesita tomar las dos posturas: tanto de los atacantes (equipo rojo) como de los defensivos (equipo azul). El equipo púrpura, compuesto por ambas responsabilidades, tiene el objetivo de colaborar para evaluar y mitigar potenciales riesgos.
Los riesgos de la IA son latentes y en este nuevo mundo que se está abriendo, cualquiera sin conocimientos, o como les llaman, script kiddies, podrían programar potentes herramientas que podrían traer grandes daños a infraestructuras de redes, dispositivos IoT, aplicaciones, páginas web y más. Es importante poder limitar y establecer reglas en estos modelos para mitigar a estos agentes maliciosos y bloquearlos para que no los puedan generar. Ese es el propósito de esta tecnología.
Un Ecosistema Abierto
Este acercamiento no es nuevo para Meta. La investigación exploratoria, ciencia abierta y la colaboración cruzada son fundamentos esenciales para la IA, y Meta cree que es importante para crear un correcto ambiente abierto.
Además, es importante destacar que Purple Llama no solo se centra en las herramientas iniciales como ‘CyberSec Eval’ y ‘Llama Guard’, sino que también es un proyecto en evolución destinado a reunir una variedad de herramientas y evaluaciones para construir de manera responsable con modelos abiertos de IA generativa. Estos componentes serán licenciados de manera permisiva, permitiendo su uso tanto en investigación como en aplicaciones comerciales. Meta también subraya su compromiso con un ecosistema abierto y transparente, colaborando con importantes socios en el ámbito de la IA, como Google Cloud, IBM, Microsoft, y muchos otros, para mejorar y hacer disponibles estas herramientas a la comunidad de código abierto. Este enfoque colaborativo y abierto es fundamental para estandarizar el desarrollo y uso de herramientas de confianza y seguridad en el campo de la IA generativa.
Pingback: La NASA Apaga su Computadora Cuántica por Orden del Gobierno de EE. UU.