Anthropic y el dilema de la industria de la IA: "La seguridad primero" se suponía que era la prioridad — ¿Quién presionó a Anthropic?

Anthropic y el dilema de la industria de la IA: "La seguridad primero" se suponía que era la prioridad — ¿Quién presionó a Anthropic?

1) Las empresas que se niegan son consideradas un "riesgo para la seguridad nacional" - El contorno del incidente

El viernes por la tarde, Anthropic recibió la peor noticia posible. Se informó que el gobierno de EE. UU. cortó relaciones con la empresa y la excluyó de contratos relacionados con la defensa. La razón fue que el CEO, Dario Amodei, rechazó demandas que abrirían la puerta al "monitoreo masivo de ciudadanos estadounidenses" y al uso de "armas autónomas completamente capaces de seleccionar y eliminar objetivos sin intervención humana". Como resultado, un contrato de hasta 200 millones de dólares está en peligro, y existe la posibilidad de que no puedan trabajar con otras empresas relacionadas con la defensa.


Lo complicado de esta situación es que no se trata simplemente de un "conflicto contractual entre el gobierno y una empresa privada". Si de repente se etiqueta a una IA como "peligrosa" o una amenaza para la cadena de suministro, no solo la empresa afectada, sino también las cadenas de suministro y las empresas asociadas se retraen de manera encadenada.

DefenseScoop también señala que esta postura dura podría enfriar a toda la industria de IA de frontera.


2) La trampa que TechCrunch señaló: el enemigo no es solo el gobierno

Lo interesante del artículo de TechCrunch es que no simplifica el asunto en "el gobierno es tiránico/la empresa tiene razón". El artículo utiliza la perspectiva de Max Tegmark, físico del MIT y fundador del Future of Life Institute, para plantear una pregunta más dolorosa.

¿Por qué no existía una "ley" para detener esta situación desde el principio?

La respuesta de Tegmark es mordaz. Anthropic ha proclamado "la seguridad primero", pero la industria en su conjunto no ha apoyado regulaciones vinculantes, diciendo "confía en nosotros, lo haremos voluntariamente" y alejando las regulaciones a través de actividades de cabildeo. Como resultado, mientras hay regulaciones para la seguridad alimentaria, no las hay para la IA, creando una situación en la que "la IA está menos regulada que un sándwich", por así decirlo.


Aquí es donde el título del artículo "La trampa que Anthropic construyó para sí misma" cobra sentido. Aunque se establecen "líneas rojas éticas" para rechazar la vigilancia masiva y las armas autónomas, si no hay una base legal que las respalde, se caen en el momento en que la otra parte (el gobierno o el cliente) se pone firme.


"Si no está prohibido por la ley, puede ser solicitado" — esa realidad ha salido a la luz de la manera más cruda posible.


3) Otro punto irónico: la bandera de la seguridad y la "historia de cooperación"

En el artículo, Tegmark también menciona que Anthropic ha cooperado con agencias de defensa e inteligencia desde al menos alrededor de 2024, señalando la discrepancia entre la marca y la realidad.

 
Este punto es altamente inflamable en las redes sociales. La opinión pública tiende a comprenderlo como "idealistas completamente limpios" o "al final, son iguales".


De hecho, las reacciones en las redes sociales se dividieron en dos.

  • Lado de los elogios: "Es importante decir NO a la vigilancia y a las armas autónomas", "Es injusto que una empresa que mantuvo sus líneas sea castigada".

  • Lado de las críticas: "Si proclamaban 'seguridad primero' y cooperaban con la defensa, ¿ahora se hacen las víctimas?", "Solo están pagando el precio por haber evitado las regulaciones".


Esta "dicotomía" en sí misma hace que el debate sobre la gobernanza de la IA sea complicado. La realidad suele ser gris, las empresas oscilan entre el ideal y el negocio, y los gobiernos entre la seguridad nacional y las libertades ciudadanas. Sin embargo, el escándalo no permite el gris.


4) Respuesta al argumento de "ganar a China" — y la redefinición de "seguridad nacional"

Otro núcleo del artículo es el argumento de "perder ante China". Es un cliché que a menudo se utiliza para oponerse a las regulaciones.


En respuesta, Tegmark señala que "China se está moviendo hacia la prohibición de la IA antropomórfica, como los compañeros de IA", argumentando que "no están desarrollando todo sin límites". Además, sostiene que una superinteligencia incontrolable podría amenazar el gobierno de su propio país antes que al enemigo, enmarcando la superinteligencia como una amenaza para la seguridad nacional en lugar de un activo.


Esta perspectiva es fácil de captar en las redes sociales. No es un simple eje de "impulso o regulación", sino una lógica de que "si es incontrolable, es una amenaza incluso para los aliados". De hecho, aunque ambos usan la palabra "seguridad nacional", el gobierno la utiliza como base para la "exclusión", mientras que Tegmark la utiliza como base para el "peligro de acelerar el desarrollo".


Llegar a conclusiones opuestas con la misma palabra. Aquí radica el peligro del lenguaje político en la era de la IA.


5) La "solidaridad" y el "aprovechamiento" acelerados por las redes sociales

Lo que hace que este incidente se sienta como un "evento de la era de las redes sociales" es que las reacciones están comenzando a retroalimentar la toma de decisiones.


(1) Carta abierta de los empleados
Según TechCrunch, empleados de Google y OpenAI firmaron una carta abierta apoyando las líneas rojas de Anthropic (rechazo a la vigilancia masiva y a las armas completamente autónomas) y pidiendo que sus propias empresas adopten las mismas líneas. La carta también cita frases como "intentan dividirnos con miedo".


(2) Publicaciones de personas influyentes
El mismo artículo menciona que Jeff Dean de Google publicó en X que "la vigilancia masiva viola la Cuarta Enmienda y tiene un efecto inhibidor en la libertad de expresión".

 
Estas "expresiones individuales" tienden a difundirse más que las declaraciones oficiales de las empresas, creando así el "ambiente de la industria".


(3) Efecto irónico del "producto"
Además, TechCrunch informa que, impulsado por la atención del escándalo, la aplicación Claude subió al segundo lugar en el App Store de EE. UU. (también se menciona el cambio en el ranking). El escándalo aumenta la exposición del servicio, un resultado típico de la economía de las redes sociales, para bien o para mal.

6) ¿Es genuina la declaración de OpenAI sobre "la misma línea"?

Lo que complicó aún más la situación fue que OpenAI anunció un acuerdo con el Departamento de Defensa, explicando que incluyó principios de seguridad que prohíben la "vigilancia masiva y el asesinato autónomo". The Guardian informa que Sam Altman expresó principios similares en X y también pidió que se presenten las mismas condiciones a otras empresas de IA.


Aquí, las reacciones en las redes sociales vuelven a dividirse.

  • Optimistas: "Si los competidores trazan la misma línea, la 'estrategia de división' del gobierno no funcionará".

  • Escépticos: "Tener 'cláusulas' y 'cumplirlas en la práctica' son cosas diferentes", "¿No es solo una estrategia para ganar mercado?".


La propuesta de Tegmark de "someterse a una verificación independiente como en los ensayos clínicos antes de lanzar" es precisamente una respuesta a esta desconfianza. No promesas, sino verificación. No buena voluntad, sino sistema.

7) Lo que sucederá a continuación: La gobernanza de la IA pasará de la "ética empresarial" al "diseño institucional"

Lo que este escándalo ha puesto de manifiesto es la realidad de que la seguridad de la IA no puede depender solo de "los principios de cada empresa". Los principios pueden cambiar. Pueden ser retirados por decisiones empresariales. Si cambia el gobierno, también cambian los fundamentos del contrato. Como señala TechCrunch, el contexto de que las empresas han relajado sus propios compromisos de seguridad también amplifica las dudas.


Por eso, el debate debe pasar de "¿Es Anthropic bueno o malo?" a "¿Qué se regula por ley, qué se audita de manera independiente y dónde se coloca la transparencia?".


Este caso podría estar indicando que el plazo para la tarea que la industria de la IA ha estado postergando —el sueño de "sobrevivir con autorregulación"— ha llegado a su fin.



Fuentes