Alguien, un amigo, escribió: «Quiero una IA pública. El problema no es la IA, es el capitalismo.» Es una reflexión honesta. Y tiene algo de razón. Pero hay capas que conviene visibilizar.

El contexto que aparenta ser técnico pero es político
Matt Schumer (Anthropic) documentó hace poco que 650 mil millones de dólares se invertirán en IA en 2026. Solo en este año. Eso no es históricamente inevitable. Es decisión política. Fue aprobada, elegida.
Pero aquí va lo curioso: Nadie está haciendo esto para ganar dinero ahora. OpenAI pierde 5 billones anuales. Está proyectada a perder 14 billones en 2026. Como señala Deutsche Bank: «Ningún startup en la historia ha operado con pérdidas en una escala que se aproxime a esto.» ¿Por qué siguen invirtiendo? Porque esto no es sobre ganancias. Es sobre capturar el mercado antes de que sea demasiado tarde. Es geopolítica: EE.UU. vs China. Microsoft vs Google. Quién controla la IA controla lo que viene. Anthropic está siendo más inteligente: quema dinero pero proyecta rentabilidad en 2028. Google no necesita que Gemini sea rentable porque tiene publicidad que le genera 96 billones anuales.
La inversión masiva no prueba que «esto sea inevitable». Prueba que gobiernos y corporaciones decidieron que fuera así.
La IA pública es deseable. Pero no es suficiente.
Si existiera una IA pública, orientada a la emancipación, con acceso gratuito a sanidad y educación—sí, cambiaría mucho. Pero una IA así nunca existirá dentro del capitalismo. No es un problema técnico. Es político. Y una máquina—incluso pública—no puede resolver lo que solo las personas pueden hacer.
Hay tres problemas con la solución «IA pública»:
1. El peligro de lo público. Una IA pública manejada por un Estado democrático está a un cambio político de distancia de ser el panóptico más sofisticado jamás construido. Mistral Le Chat es «europeo y soberano»—pero sigue siendo propiedad privada. ¿Dónde está la IA verdaderamente colectiva?
2. Sigue siendo extractivista. Incluso pública y gratuita, mantiene la lógica capitalista: extrae datos, energía, recursos. Solo la automatiza. Es como hablar de una «mina de litio ética»—mejor gobernanza, pero extractiva de fondo.
3. La liberación no es delegable. Una IA eficiente que te hace más productivo no te libera. Solo te hace más eficiente sirviendo los mismos sistemas. La emancipación requiere transformación política y cultural. La IA es herramienta, no motor.

Lo que Schumer dice y lo que no dice
Schumer documenta que la versión gratuita de las herramientas de IA está más de un año atrás de lo que acceden los usuarios de pago. Eso no es accidental. Es estrategia. Crea dos mercados simultáneamente: la masa usando versiones débiles, la élite accediendo a lo transformador en privado.
Lo que omite: Mistral existe. Ollama existe. Modelos open-source existen. Pero la narrativa corporativa es «OpenAI, Anthropic, Google. No hay alternativas reales.» Y omite lo crucial: la velocidad es ideología, no destino. Los gobiernos podrían haber dicho «esperamos, regulamos primero, invertimos después». No lo hicieron.
Mientras tanto: Hay alternativas que son visibles
No estamos completamente rehenes. Mistral Le Chat es europeo. No es «soberano» completo (es propiedad privada), pero no está concentrado en las tres corporaciones estadounidenses. Ollama corre modelos localmente en tu máquina. Privacidad real. No extrae datos. LM Studio es interfaz amigable para Ollama si no quieres usar terminal. Documentar que estas opciones existen no resuelve el capitalismo. Pero significa que la «necesidad» de OpenAI/Google que nos venden es en parte ficción.
El mapa real
La pregunta sobre IA pública es correcta. Pero apunta al síntoma, no a la enfermedad. La enfermedad es: ¿Quién decide para qué se usa la tecnología? No la tecnología en sí.
Una IA pública bien gobernada sería mejor que tres corporaciones privadas. Pero requeriría:
- Gobernanza real (no solo «pública», sino democráticamente controlada)
- Transformación cultural (reimaginar trabajo, educación, comunidad fuera de «productividad máxima»)
- Decisión política (ralentizar, cuestionar, elegir)
Ninguna de esas cosas es tecnológica. Por eso ninguna máquina las puede resolver.
La verdadera responsabilidad
Si creemos que IA pública importa, entonces necesitamos:
- Nombrar que fue elegida, no inevitable (los 650 mil millones)
- Visibilizar alternativas (Mistral, Ollama, open-source)
- Cuestionar la velocidad sin rechazar la herramienta
- Crear espacios lentos donde se piense críticamente
No es revolucionario. Pero es responsable. Porque mientras esperamos o luchamos por IA pública verdadera, necesitamos educadores que enseñen a desconfiar de la velocidad, comunidades que experimenten con alternativas, familias que sepan que hay opciones. Eso importa ahora. Más que la máquina perfecta que no viene.
La IA pública es una estación en el camino, no el destino. El motor de la transformación real somos nosotros. La pregunta no es «¿qué máquina construimos?». Es «¿qué haremos juntos mientras estamos aquí?».
Artículo al que se hace referencia: https://shumer.dev/something-big-is-happening