La FTC elimina publicaciones clave sobre riesgos y código abierto de la IA: ¿Cambia la postura regulatoria en EE. UU.?
La Comisión Federal de Comercio (FTC) de EE. UU. ha retirado de su sitio web varias publicaciones clave de la era de Lina Khan que abordaban los riesgos de la IA y la regulación del código abierto, señalando una posible revisión o suavización en el enfoque regulatorio hacia la tecnología.

La política que rodea a la Inteligencia Artificial es tan dinámica como la propia tecnología. Un movimiento reciente de la Comisión Federal de Comercio (FTC) en Estados Unidos sugiere que el tono y el enfoque regulatorio podrían estar cambiando, o al menos, siendo reevaluados.
La FTC, que actúa como el principal vigilante de la competencia y la protección del consumidor en EE. UU., ha eliminado discretamente de su sitio web oficial varios artículos de blog influyentes que se centraban en los riesgos potenciales de la IA y, en particular, en el debate sobre el software de código abierto.
¿Por qué importaban estos documentos?
Las publicaciones eliminadas fueron creadas durante la gestión de la presidenta Lina Khan, conocida por su postura agresiva contra los monopolios tecnológicos y por exigir una mayor responsabilidad a las grandes empresas de tecnología. Estos artículos no eran simples opiniones; representaban la voz oficial de la agencia sobre temas cruciales.
Uno de los puntos más sensibles que trataban era el código abierto (o open source). El software de código abierto es aquel cuyo código fuente es público, permitiendo que cualquiera lo vea, modifique y distribuya. En el mundo de la IA, esto incluye modelos como Llama de Meta.
Los posts de la FTC bajo Khan sugerían que, aunque el código abierto promueve la innovación, también podría plantear riesgos significativos para los consumidores si no se regula adecuadamente, especialmente si se usa para crear deepfakes o contenido dañino. La eliminación de estos artículos podría interpretarse como una toma de distancia de esa postura de cautela extrema.
El debate sobre el Código Abierto
El futuro de la IA está profundamente ligado a si los modelos deben ser abiertos o cerrados. Quienes defienden el código abierto argumentan que fomenta la transparencia, la seguridad (al permitir que miles de ojos revisen el código) y la competencia, evitando que solo unas pocas empresas gigantes dominen el mercado.
Por otro lado, los críticos, a menudo alineados con las grandes empresas de modelos cerrados como OpenAI o Google, señalan que liberar modelos potentes sin restricciones podría facilitar su uso malicioso por parte de actores con malas intenciones. La FTC, al retirar sus análisis críticos, parece estar suavizando el mensaje que enviaba al mercado.
¿Qué significa este cambio de tono?
La eliminación de contenido oficial, aunque sea solo en un blog, nunca es un accidente en el ámbito gubernamental. Esto sugiere una de dos cosas:
- Revisión de Postura: La FTC podría estar en proceso de reevaluar si la postura anterior era demasiado alarmista o si interfería innecesariamente con el crecimiento de las startups de código abierto.
 - Búsqueda de Neutralidad: Podría ser un intento de adoptar una posición más neutral y menos intervencionista en el debate entre la IA abierta y la cerrada, dejando que el Congreso o las leyes existentes manejen los riesgos.
 
Independientemente de la razón exacta, el mensaje es claro: la vigilancia regulatoria sobre los riesgos de la IA, tal como se articuló en los últimos años, está siendo cuestionada o, al menos, reestructurada internamente. Para las empresas de IA, esto podría significar un respiro momentáneo, mientras que para los defensores de la seguridad del consumidor, genera una gran incertidumbre sobre el futuro de la protección en la era de la IA.






