El 14 de marzo de 2026, en una intervención pública muy seguida, David Sacks —identificado en la Casa Blanca como zar de la IA y las criptomonedas— planteó una advertencia contundente: ciertas facciones dentro de la administración presionan por intensificar el conflicto con Irán, y esa escalada tendría consecuencias que van más allá del terreno militar.
Sacks, creador de puentes entre Silicon Valley y la presidencia desde enero de 2026, describió su postura como partidaria de buscar una retirada prudente: «Es el momento adecuado para cantar victoria y retirarse».
Su mensaje no fue abstracto: el asesor enumeró riesgos concretos, desde ataques a infraestructuras petroleras —recordando que el 13 de marzo fue destruido un depósito de petróleo en Omán— hasta la posibilidad de que Irán utilice el agua como arma atacando plantas desalinizadoras.
Según Sacks, la región depende en gran medida de la desalinización y esa vulnerabilidad podría producir un desplazamiento humano y un choque económico regional con efectos globales en los mercados de riesgo, incluidas las criptomonedas.
Riesgos geopolíticos y humanos
Desalinización y vulnerabilidad civil
En su diagnóstico, Sacks señaló que unas 100 millones de personas en la península arábiga dependen de la desalinización; por eso la convierte en un punto crítico. La idea de que el agua pueda ser usada como instrumento de daño cambia la naturaleza del conflicto: no se trata solo de objetivos energéticos, sino de servicios esenciales cuya interrupción causa crisis humanitarias. Esa línea de razonamiento subraya que un conflicto prolongado podría transformar grandes áreas en entornos casi inhabitables y provocar olas migratorias que alterarían cadenas de suministro y flujos financieros internacionales.
Escalada militar y el peor escenario
Más allá de ataques convencionales, Sacks advirtió sobre un riesgo extremo: la posibilidad de que una guerra sostenida lleve a una reacción en cadena cuyo punto culminante sería una confrontación a gran escala en la que «Israel podría quedar destruido» y que, según él, conduciría a preocupaciones sobre el uso de armas nucleares. Aunque alarmante, esta visión se presentó como una razón pragmática para contener la violencia: reducir la exposición para evitar la desintegración de infraestructuras críticas y la ruptura de modelos económicos emergentes.
Impacto sobre la financiación de la IA y las criptomonedas
El modelo de Dubái y la financiación soberana
Sacks puso en relación directa la inestabilidad regional con el financiamiento de proyectos de inteligencia artificial. Citó el papel de los Emiratos Árabes Unidos en iniciativas como Stargate UAE, parte de un plan más amplio asociado a figuras relevantes del sector, y recordó que el calendario de inversión en centros de datos y capacidad computacional en Abu Dabi esperaba multiplicarse en los próximos años. Una guerra que afecte a hubs logísticos o a la confianza de capitales soberanos puede interrumpir ese flujo de recursos y cuestionar la viabilidad de ese modelo.
Centros de datos como objetivo y respuesta del mercado
La vulnerabilidad no es sólo financiera: el 1 de marzo, ataques con drones atribuidos a Irán dañaron varios centros de datos de AWS en los Emiratos Árabes Unidos y en Baréin, produciendo incendios y cortes prolongados. Esos incidentes muestran que las infraestructuras digitales que sostienen tanto a la IA como a servicios financieros son también blancos potenciales. El resultado inmediato ha sido una caída en los precios de las criptomonedas desde las primeras horas del conflicto y una mayor aversión al riesgo entre inversores de tecnología.
Tensiones entre el sector tecnológico y el gobierno: el ejemplo de Anthropic
Paralelamente, otra fricción relevante es la que enfrenta Anthropic, narrada por la revista TIME. En febrero de 2026 su Equipo Rojo pospuso el lanzamiento de Claude 3.7 Sonnet durante 10 días tras detectar riesgos potenciales de uso para crear armas biológicas. Esa precaución interna convive con la presión externa: después de que Claude fuera empleado en operaciones de inteligencia y, según informes, en una misión en enero de 2026, la administración anunció el 27 de febrero que consideraba a Anthropic como «riesgo para la cadena de suministro de la seguridad nacional» y suspendió su uso gubernamental.
El choque de prioridades es claro: mientras empresas como Anthropic intentan imponer guardrails sobre usos militares o de vigilancia masiva, algunas ramas del gobierno exigen acceso amplio para reforzar capacidades defensivas. Esta disputa ilustra cómo la gobernanza de la IA afecta directamente acuerdos de seguridad, contratación pública y la percepción de riesgo que determina el flujo de capital hacia la industria.
Conclusión: señales internas y consecuencias globales
Las declaraciones de Sacks y las tensiones con empresas como Anthropic revelan una doble fractura: entre partidarios de la escalada y quienes piden moderación, y entre un sector tecnológico que intenta normarse y un Estado que reclama capacidad operativa plena. Si las infraestructuras energéticas y digitales continúan siendo atacadas, el efecto combinado sobre la financiación de la IA y las criptomonedas podría ser profundo. En ese contexto, el papel de asesores no oficiales que comunican señales de moderación puede ser decisivo para evitar daños mayores a la seguridad humana y a los mercados.