Icono del sitio Directivos y Empresas

Anthropic y el giro en la privacidad: ¿pragmatismo competitivo o renuncia a sus valores fundacionales?

Privacidad-Anthropic

La compañía de inteligencia artificial Anthropic, fundada en 2021 como alternativa ética a OpenAI, ha dado un paso que redefine su identidad: a partir de ahora, utilizará las conversaciones de los usuarios para entrenar a su modelo Claude, salvo que el usuario lo desactive de forma explícita. Se trata de un movimiento en línea con lo que ya hacen OpenAI, Google o Meta, pero que supone un cambio de rumbo para una empresa que había hecho de la seguridad y la privacidad su bandera.

Al mismo tiempo, Anthropic ha anunciado un acuerdo extrajudicial de 1.500 millones de dólares con autores y editoriales por el uso de libros en el entrenamiento de Claude. Esta decisión, que equivale a unos 3.000 dólares por obra, ha sido interpretada como una señal estratégica: pagar hoy para consolidar una narrativa de legitimidad en el futuro.

Anthropic: la alternativa ética que nació de OpenAI

Anthropic fue fundada por Dario y Daniela Amodei, antiguos directivos de OpenAI que se alejaron de la compañía por diferencias en torno a la seguridad y el rumbo de la IA. Desde sus inicios, defendieron un modelo basado en la Constitutional AI, es decir, un conjunto de principios éticos que guían el comportamiento del chatbot Claude. Su objetivo era evitar la dependencia exclusiva del feedback humano y dar a la IA un marco de actuación coherente y predecible.

Durante sus primeros años, Anthropic se diferenció precisamente por renunciar a usar las conversaciones de los usuarios para entrenar sus modelos, lo que atrajo a clientes preocupados por la privacidad y la seguridad. Claude se convirtió en una opción especialmente valorada en tareas largas, análisis complejos y contextos sensibles.

El giro: Claude también quiere tus datos

La nueva política de privacidad supone un cambio radical: Claude entrenará con datos de conversaciones reales, salvo que el usuario decida excluirse. Según Antonio Pita, profesor de la UOC y experto en IA, se trata de una mezcla de pragmatismo y competitividad: “No adoptar esta práctica equivalía a jugar con desventaja en una carrera donde cada mejora incremental cuenta”.

El cambio tiene dos caras. Desde el punto de vista técnico, permitirá entrenar modelos más rápidos, precisos y adaptados a escenarios reales. Sin embargo, el coste reputacional puede ser alto: Anthropic nació como la alternativa ética y para algunos usuarios este paso se leerá como una renuncia a sus principios fundacionales.

El acuerdo millonario con los autores: estrategia de legitimidad

El otro movimiento clave ha sido el acuerdo con autores y editoriales estadounidenses que habían denunciado a Anthropic por usar libros sin autorización. La cifra —muy superior a la que han ofrecido otras compañías— busca enviar un mensaje claro al sector cultural: Anthropic quiere convivir con los creadores en lugar de enfrentarse a ellos.

Este gesto se interpreta como una forma de diferenciarse de OpenAI, que todavía afronta litigios abiertos en tribunales. En palabras de Pita: “Anthropic opta por reforzar una narrativa de respeto a la creación. No se trata solo de construir el chatbot más potente, sino de hacerlo de forma que escritores, editores y usuarios perciban un terreno de juego más justo”.

Una relación cada vez más tensa con OpenAI

La rivalidad con OpenAI se ha intensificado. De hecho, Anthropic revocó recientemente el acceso de OpenAI a la API de Claude al acusarla de usarla para benchmarking y preparar el lanzamiento de GPT-5. Este episodio refleja la “guerra fría” tecnológica y filosófica entre ambas compañías: mientras OpenAI apuesta por la integración masiva en productos globales (de la mano de Microsoft), Anthropic había priorizado hasta ahora la seguridad y la privacidad como diferenciadores.

Claude frente a ChatGPT: dos filosofías en disputa

La diferencia entre Claude y ChatGPT no es solo técnica, sino filosófica. Claude se diseñó bajo principios éticos explícitos, con el objetivo de reducir sesgos y ofrecer coherencia en contextos largos. ChatGPT, por su parte, ha evolucionado bajo un enfoque de escalabilidad y penetración masiva.

El cambio de Anthropic al usar datos de usuarios para entrenar a Claude plantea un dilema: ¿pierde el diferencial que lo hacía único o se fortalece al volverse más competitivo? Para los defensores de la privacidad, el riesgo es claro: erosionar la confianza de los usuarios que eligieron a Claude como refugio frente al modelo de OpenAI.

¿Qué gana o pierde el usuario?

Desde el punto de vista del usuario, la medida tiene beneficios y riesgos:

Aunque Anthropic asegura que habrá opciones claras para excluirse, la clave estará en la transparencia y en demostrar que se puede entrenar con datos sin sacrificar la seguridad.

Implicaciones para el futuro de la IA

El caso de Anthropic refleja un dilema central de la inteligencia artificial actual: ¿es posible competir con los gigantes tecnológicos sin renunciar a los principios éticos?. Para algunos analistas, este giro era inevitable si Anthropic quería sobrevivir en un mercado dominado por gigantes con recursos casi ilimitados. Para otros, supone diluir la narrativa que la hizo única.

El futuro de la compañía dependerá de cómo gestione esta transición. Si logra equilibrar competitividad y ética, podría consolidarse como un actor influyente en la IA responsable. Si no, corre el riesgo de convertirse en “otro jugador más” en un mercado saturado.

Un cambio de rumbo que redefine el equilibrio

Anthropic nació como la IA ética, pero los últimos movimientos muestran que incluso las compañías más idealistas deben adaptarse a la presión competitiva. El acuerdo con los autores y la nueva política de datos son pasos que buscan legitimidad y supervivencia, aunque al precio de redefinir su identidad fundacional.

La gran incógnita es si los usuarios —especialmente los más sensibles a la privacidad— verán estos cambios como una evolución necesaria o como una traición a los principios que los llevaron a elegir a Claude. En cualquier caso, el movimiento de Anthropic marca un precedente: en la carrera por la inteligencia artificial, la frontera entre ética y pragmatismo se vuelve cada vez más difusa.

La reciente decisión de Anthropic de utilizar datos de conversaciones de usuarios para entrenar a su modelo Claude marca un giro significativo en su identidad como alternativa ética a OpenAI. Este cambio, motivado por la necesidad de competitividad, plantea un dilema sobre la privacidad y la confianza del usuario. Mientras busca legitimidad con un acuerdo millonario con autores, queda la incógnita de si podrá equilibrar su compromiso ético con la exigencia del mercado, sin sacrificar su esencia fundacional.

Salir de la versión móvil