Por Redacción
Redmond, 20 de marzo de 2026.- Microsoft mantiene un equipo de seguridad conocido como red team que se dedica a probar y hackear sus propios productos de inteligencia artificial, según declaró Brad Smith, presidente de la compañía.
El ejecutivo explicó que la empresa cuenta con principios definidos y publicados que crean guardarraíles para el desarrollo tecnológico. “Nos mantenemos en la carretera dentro de ellos. No se trata solo de cuándo debemos usar la tecnología, sino también de cuándo no debemos usarla”, afirmó Smith.
Microsoft se atribuye haber sido pionera en esta práctica al formar el equipo rojo o red team en 2021. Este grupo multidisciplinario tiene la función de identificar vulnerabilidades y riesgos en los productos de la compañía antes de su lanzamiento al mercado.
La práctica del red teaming tiene origen militar y se aplica en ciberseguridad desde hace décadas. En el contexto tecnológico actual, este enfoque permite a las empresas evaluar los posibles usos indebidos de sus sistemas de inteligencia artificial.
El anuncio se da en medio de un debate sobre el uso de inteligencia artificial en aplicaciones militares. Antecedentes recientes incluyen el caso de Anthropic demandando al Pentágono y la cancelación de un acuerdo entre Microsoft y el Pentágono en 2021.
La estrategia de seguridad de Microsoft busca equilibrar la innovación tecnológica con la responsabilidad en el desarrollo de sistemas de IA, estableciendo límites claros sobre cuándo y cómo deben utilizarse estas herramientas.
Más historias
Fijan fecha para juicio de Caro Quintero en 2027; Senado autoriza adiestramiento de marinos en EE. UU.
Aprueba Cámara de Diputados convocatoria para renovar tres consejeros del INE
Estudiante estadounidense muere tras caer al mar en Barcelona durante spring break