Por Redacción
Redmond, 20 de marzo de 2026.- Microsoft mantiene un equipo de seguridad conocido como red team que se dedica a probar y hackear sus propios productos de inteligencia artificial, según declaró Brad Smith, presidente de la compañía.
El ejecutivo explicó que la empresa cuenta con principios definidos y publicados que crean guardarraíles para el desarrollo tecnológico. “Nos mantenemos en la carretera dentro de ellos. No se trata solo de cuándo debemos usar la tecnología, sino también de cuándo no debemos usarla”, afirmó Smith.
Microsoft se atribuye haber sido pionera en esta práctica al formar el equipo rojo o red team en 2021. Este grupo multidisciplinario tiene la función de identificar vulnerabilidades y riesgos en los productos de la compañía antes de su lanzamiento al mercado.
La práctica del red teaming tiene origen militar y se aplica en ciberseguridad desde hace décadas. En el contexto tecnológico actual, este enfoque permite a las empresas evaluar los posibles usos indebidos de sus sistemas de inteligencia artificial.
El anuncio se da en medio de un debate sobre el uso de inteligencia artificial en aplicaciones militares. Antecedentes recientes incluyen el caso de Anthropic demandando al Pentágono y la cancelación de un acuerdo entre Microsoft y el Pentágono en 2021.
La estrategia de seguridad de Microsoft busca equilibrar la innovación tecnológica con la responsabilidad en el desarrollo de sistemas de IA, estableciendo límites claros sobre cuándo y cómo deben utilizarse estas herramientas.
Más historias
Crisis energética global tras bloqueo en el Estrecho de Ormuz; petróleo supera los 110 dólares
Anuncia Sheinbaum obligatoriedad de pago digital en gasolineras y casetas para 2026
Fiscalias federales de EE.UU. investigan al presidente Gustavo Petro por presuntos vinculos con narcotrafico