🛰️ Explorando una infraestructura de IA escalable basada en el espacio
Un diseño modular de satélites pequeños que podrían cambiar cómo construimos centros de datos para IA.
Google Research acaba de publicar una investigación que plantea trasladar parte de la infraestructura de IA al espacio: una constelación de satélites interconectados, diseñados para mejorar la escalabilidad, la comunicación de banda ancha entre nodos orbitales y mitigar los efectos del entorno espacial (radiación, dinámica orbital, disipación térmica). El proyecto —que llaman “Project Suncatcher” en el pre-print— aborda retos clave como crear enlaces ópticos entre satélites, manejar grandes cargas de cómputo en órbita y resolver cómo disipar el calor sin la “atmósfera terrestre” que ayuda aquí en la Tierra.
Esto abre un escenario futurista donde los “centros de datos” no están en parques industriales en EE.UU. o Europa, sino flotando sobre nosotros, alimentados por paneles solares constantes, vinculados a servicios de IA globales. Claro: todavía hay mucho “paper” y poco prototipo lanzado, pero el mero planteo ya cambia el chip de «infraestructura = tierra firme».
✊ Bullying no es innovación
Cuando una empresa grande intenta frenar a un competidor de IA mediante amenazas legales.
Perplexity AI respondió con un blog titulado “Bullying is Not Innovation” tras recibir una carta de cese y desistimiento de Amazon.com, Inc. por el uso de su agente de compras con IA —llamado “Comet”— que Amazon considera infractor porque no se identificaba como agente al comprar en su plataforma.
Perplexity argumenta que la innovación tecnológica debería empoderar a los usuarios, no que grandes corporaciones impongan barreras para protegerse o monopolizar interacciones automatizadas. Es una batalla con implicaciones de fondo: ¿quién define qué agentes pueden actuar online, bajo qué reglas, y cuándo una plataforma puede bloquear innovaciones de terceros diciendo simplemente “es que viola nuestros términos”? El debate va más allá de “legal vs ilegal” y entra en “ética de la competencia en IA”.
🔧 Conservación de modelos y compromiso responsable
Una apuesta de transparencia y confiabilidad en el desarrollo de IA.
Anthropic está anunciando compromisos concretos respecto a la depresión y preservación de modelos de IA: por ejemplo, se compromete a conservar los pesos de todos los modelos públicamente liberados y de los que desplegue internamente, al menos durante la vida de la empresa. Además, notifican que informarán con antelación (al menos 60 días) cuando un modelo público vaya a ser retirado.
En esencia: están diciendo “no vamos a hacer desaparecidos los modelos sin dejar rastro, queremos que puedas volver a consultarlos”, lo cual es relevante para quienes valoran replicabilidad, auditoría o control público en IA. Es un paso hacia estándares más altos en transparencia en un entorno que exige seguridad, veracidad y rendición de cuentas.
🧮 Centro de datos: macro-acuerdo de infraestructura
Un juego de gigantes que define quién va a soportar la IA del futuro.
OpenAI cerró un acuerdo de 38 mil millones de dólares con Amazon Web Services (AWS) para los próximos siete años, mediante el cual OpenAI tendrá acceso masivo a infraestructuras cloud y miles de GPUs de Nvidia para entrenar y ejecutar sus modelos. Este movimiento marca que AWS no sólo quiere seguir siendo un proveedor de nube, sino apuntar directamente a ser pilar clave en la carrera de IA.
El acuerdo también refleja que entrenar y escalar IA se está convirtiendo en un negocio de infraestructura a escala industrial — no sólo algoritmos, sino “cuántos racks, cuántos chips, cuántas datacenters”. Y en ese juego, los contratos y alianzas estratégicas importan tanto como la ciencia.

