<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:media="http://search.yahoo.com/mrss/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:atom="http://www.w3.org/2005/Atom"  xmlns:content="http://purl.org/rss/1.0/modules/content/" version="2.0">
  <channel>
    <title><![CDATA[elDiarioAR.com - Anthropic]]></title>
    <link><![CDATA[https://www.eldiarioar.com/temas/anthropic/]]></link>
    <description><![CDATA[elDiarioAR.com - Anthropic]]></description>
    <language><![CDATA[es]]></language>
    <copyright><![CDATA[Copyright El Diario]]></copyright>
    <ttl>10</ttl>
    <atom:link href="https://www.eldiarioar.com/rss/category/tag/1055606/" rel="self" type="application/rss+xml"/>
    <item>
      <title><![CDATA[Una nueva IA de Anthropic hace saltar las alarmas en EE.UU. por su capacidad para explotar brechas de seguridad]]></title>
      <link><![CDATA[https://www.eldiarioar.com/tecnologia/nueva-ia-anthropic-saltar-alarmas-ee-uu-capacidad-explotar-brechas-seguridad_1_13134604.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/9b876a91-3edd-4a44-aa62-cfd48070124b_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Una nueva IA de Anthropic hace saltar las alarmas en EE.UU. por su capacidad para explotar brechas de seguridad"></p><div class="subtitles"><p class="subtitle">El secretario del Tesoro de EE.UU. convocó a los principales bancos para avisarles del riesgo de que los ciberdelincuentes descubran agujeros en sus sistemas gracias al nuevo modelo.</p><p class="subtitle">Qué es Anthropic, la startup que planta cara a Trump y su “estilo dictador” por el uso de IA en la guerra</p></div><p class="article-text">
        <strong>Anthropic</strong>, la startup que compite con OpenAI por el liderazgo de la inteligencia artificial, afirma que desarroll&oacute; un modelo demasiado peligroso para ser liberado al p&uacute;blico. La compa&ntilde;&iacute;a anunci&oacute; esta semana que su nueva tecnolog&iacute;a, denominada <strong>Claude Mythos</strong>, posee una capacidad sin precedentes para identificar y explotar vulnerabilidades de ciberseguridad. Seg&uacute;n sus datos internos, el sistema localiz&oacute; miles de errores en los principales programas, incluyendo todos los grandes sistemas operativos y navegadores web.
    </p><p class="article-text">
        La startup expres&oacute; en un comunicado que teme que si libera el modelo al p&uacute;blico este pueda ser utilizado por grupos de ciberdelincuentes para aprovecharse de agujeros en el c&oacute;digo que hasta ahora hab&iacute;an pasado inadvertidos. Claude Mythos es un modelo general que tambi&eacute;n puede generar texto como los chatbots m&aacute;s conocidos, pero fuer su capacidad de analizar software lo que desat&oacute; las alarmas. 
    </p><p class="article-text">
        &ldquo;Los modelos de IA alcanzaron un nivel de capacidad de codificaci&oacute;n que les permite superar a todos, salvo a los humanos m&aacute;s habilidosos, a la hora de encontrar y explotar vulnerabilidades de software&rdquo;, asegura Anthropic en el comunicado de lanzamiento. 
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Los modelos de IA alcanzaron un nivel que les permite superar a todos, salvo a los humanos más habilidosos, a la hora de encontrar y explotar vulnerabilidades de software</p>
                <div class="quote-author">
                        <span class="name">Anthropic</span>
                                  </div>
          </div>

  </blockquote><p class="article-text">
        Entre los hitos del modelo, presume Anthropic, est&aacute; el descubrimiento de una vulnerabilidad de 27 a&ntilde;os de antig&uuml;edad en OpenBSD, un sistema operativo dise&ntilde;ado espec&iacute;ficamente para ser dif&iacute;cil de hackear. Logan Graham, responsable del equipo de pruebas de la empresa, calific&oacute; el avance como &ldquo;un punto de inflexi&oacute;n&rdquo; para la industria tecnol&oacute;gica.
    </p><p class="article-text">
        Ante el temor de que la herramienta sea utilizada por los ciberdelincuentes, Anthropic opt&oacute; por un despliegue restringido a trav&eacute;s de una iniciativa llamada <em>Project Glasswing</em>. Se trata de una coalici&oacute;n de 40 organizaciones, entre las que se encuentran gigantes como Apple, Amazon, Microsoft, Google y la Linux Foundation, a los que dio acceso al modelo para que parcheen las posibles brechas que Claude Mythos pueda detectar en sus sistemas.
    </p><p class="article-text">
        A pesar del revuelo generado en torno a las capacidades de esta nueva IA en las &uacute;ltimas horas, por el momento ninguna de estas compa&ntilde;&iacute;as desminti&oacute; las capacidades de las que presume Anthropic. Amazon, Google y Microsoft son inversores oficiales de la startup, mientras que Apple y la Linux Foundation colaboran estrechamente con la empresa.
    </p><h2 class="article-text">El secretario del Tesoro re&uacute;ne a los bancos</h2><p class="article-text">
        El debate en torno a Claude Mythos escal&oacute; fuera de las fronteras de la industria tecnol&oacute;gica este viernes. Varios diarios econ&oacute;micos, entre ellos el <a href="https://www.ft.com/content/397bf755-54cf-4018-a01d-8f714d8667c5?syn-25a6b1a6=1" target="_blank" data-mrf-recirculation="links-noticia" class="link"><em>Financial Times</em></a><em>,</em> informaron que el secretario del Tesoro de Estados Unidos, Scott Bessent, convoc&oacute; esta semana a los m&aacute;ximos responsables de algunos de los mayores bancos del pa&iacute;s para abordar los riesgos asociados a esta IA. 
    </p><p class="article-text">
        Seg&uacute;n el citado medio, que cita fuentes conocedoras del encuentro, a este asistieron directivos de Bank of America, Citigroup, Goldman Sachs, Morgan Stanley y Wells Fargo. Tambi&eacute;n particip&oacute; el presidente de la Reserva Federal, Jay Powell. El consejero delegado de JPMorgan Chase, Jamie Dimon tambi&eacute;n hab&iacute;a sido invitado, aunque finalmente no pudo asistir. 
    </p><p class="article-text">
        Hab&iacute;a sido precisamente Dimon el que, en su carta anual publicada esta semana, hab&iacute;a escrito que los ciberataques &ldquo;siguen siendo uno de nuestros mayores riesgos&rdquo;, que &ldquo;la IA casi con seguridad lo agravar&aacute;&rdquo; y que ser&aacute; necesaria una inversi&oacute;n significativa en defensa. 
    </p><p class="article-text">
        Seg&uacute;n inform&oacute; Anthropic, ya antes de esta reuni&oacute;n con los principales bancos, sus responsables hab&iacute;an iniciado conversaciones con el gobierno estadounidense para hablar de los riesgos de Claude Mythos para la seguridad nacional. La salida a la luz del modelo agarra a la startup en medio de una guerra abierta con la Casa Blanca: Donald Trump orden&oacute; calificar a la empresa como un &ldquo;riesgo para la cadena de suministro&rdquo; despu&eacute;s de que esta se negara a levantar algunas salvaguardas de seguridad en el uso de su IA en la guerra de Ir&aacute;n.
    </p><h2 class="article-text">La sombra de una estrategia comercial</h2><p class="article-text">
        Sin embargo, no todos los expertos comparten el clima de p&aacute;nico. El analista Gary Marcus, uno de los mayores cr&iacute;ticos con el &ldquo;autobombo&rdquo; que rodea a la industria de la IA, se&ntilde;al&oacute; que el anuncio de Anthropic podr&iacute;a estar &ldquo;inflado&rdquo; y responder m&aacute;s a una maniobra de marketing que a una amenaza inmediata. 
    </p><p class="article-text">
        Marcus advierte que, en las pruebas de explotaci&oacute;n del navegador Firefox presentadas por la empresa, se desactiv&oacute; el &ldquo;sandboxing&rdquo; (un mecanismo de aislamiento de seguridad), lo que facilit&oacute; enormemente la tarea del modelo y lo convirti&oacute; m&aacute;s en una &ldquo;prueba de concepto&rdquo; que en un peligro real.
    </p><p class="article-text">
        Adem&aacute;s, Marcus subraya que modelos de c&oacute;digo abierto mucho m&aacute;s peque&ntilde;os y econ&oacute;micos ya demostraron ser capaces de realizar an&aacute;lisis de vulnerabilidades similares a los de Mythos. Para el analista, el modelo est&aacute; &ldquo;en la tendencia&rdquo; de evoluci&oacute;n de la industria, pero no representa un salto fuera de los gr&aacute;ficos respecto a sus competidores.
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiarioar.com/tecnologia/nueva-ia-anthropic-saltar-alarmas-ee-uu-capacidad-explotar-brechas-seguridad_1_13134604.html]]></guid>
      <pubDate><![CDATA[Fri, 10 Apr 2026 18:03:43 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/9b876a91-3edd-4a44-aa62-cfd48070124b_16-9-discover-aspect-ratio_default_0.jpg" length="15432636" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/9b876a91-3edd-4a44-aa62-cfd48070124b_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="15432636" width="1200" height="675"/>
      <media:title><![CDATA[Una nueva IA de Anthropic hace saltar las alarmas en EE.UU. por su capacidad para explotar brechas de seguridad]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/9b876a91-3edd-4a44-aa62-cfd48070124b_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Anthropic,IA,Ciberdelitos]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Anthropic, OpenAI y Google: tres estrategias opuestas ante el tablero bélico de la IA]]></title>
      <link><![CDATA[https://www.eldiarioar.com/tecnologia/anthropic-openai-google-tres-estrategias-opuestas-tablero-belico-ia_1_13063213.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/f74dd22e-4ade-464d-956b-17cf94eafe04_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Anthropic, OpenAI y Google: tres estrategias opuestas ante el tablero bélico de la IA"></p><div class="subtitles"><p class="subtitle">Anthropic vio crecer su popularidad entre los civiles a la par que se enfrenta en los tribunales a la Administración de Donald Trump, OpenAI enfrenta críticas por su cercanía al sector militar, y Google expande discretamente su presencia en Defensa. La semana pasada, el Departamento de Defensa de EE.UU. designó a Anthropic como un "riesgo para la cadena de suministro" y vetó el uso de su tecnología en contratos militares tras no lograr un acuerdo con la compañía. </p></div><p class="article-text">
        La creciente disputa legal y &eacute;tica entre las tecnol&oacute;gicas y el Pent&aacute;gono est&aacute; reconfigurando el tablero de la inteligencia artificial (IA), con tres actores clave, Anthropic, OpenAI y Google, que adoptaron aproximaciones diversas ante el uso b&eacute;lico de su tecnolog&iacute;a.
    </p><p class="article-text">
        Anthropic vio crecer su popularidad entre los civiles a la par que se enfrenta en los tribunales a la Administraci&oacute;n de Donald Trump, OpenAI enfrenta cr&iacute;ticas por su cercan&iacute;a al sector militar, y Google expande discretamente su presencia en Defensa.
    </p><p class="article-text">
        La semana pasada, el Departamento de Defensa de EE.UU. design&oacute; a Anthropic como un &ldquo;riesgo para la cadena de suministro&rdquo; y vet&oacute; el uso de su tecnolog&iacute;a en contratos militares tras no lograr un acuerdo con la compa&ntilde;&iacute;a.
    </p><p class="article-text">
        El origen de la fricci&oacute;n radica en las salvaguardas que Anthropic -una empresa que se distingue por priorizar la seguridad- pidi&oacute; al Pent&aacute;gono, como la prohibici&oacute;n expl&iacute;cita del uso de su modelo Claude en vigilancia dom&eacute;stica masiva o en el desarrollo de armas totalmente aut&oacute;nomas.
    </p><p class="article-text">
        Por el contrario, el Pent&aacute;gono exigi&oacute; un acceso &ldquo;para todo prop&oacute;sito legal&rdquo; sin restricciones del proveedor, lo que le llev&oacute; a un acuerdo con OpenAI para el uso de sus modelos de IA.
    </p><p class="article-text">
        La vanguardista tecnolog&iacute;a de Anthropic hab&iacute;a sido integrada en sistemas cr&iacute;ticos del Pent&aacute;gono, utilizados para sintetizar documentos, optimizar cadenas de suministro y analizar datos en tiempo real en operaciones de defensa.
    </p><p class="article-text">
        Seg&uacute;n medios con acceso a fuentes del Departamento de Defensa, Claude ha sido empleado en an&aacute;lisis y log&iacute;stica de operaciones militares como la reciente incursi&oacute;n militar en Venezuela para capturar al l&iacute;der Nicol&aacute;s Maduro, as&iacute; como en operaciones en Ir&aacute;n, pese a la decisi&oacute;n del Pent&aacute;gono de limitar su uso.
    </p><p class="article-text">
        El Pent&aacute;gono utiliza estos modelos para sintetizar documentos, optimizar cadenas de suministro y analizar datos en tiempo real.
    </p><h2 class="article-text"><strong>Popularidad impulsada por la seguridad</strong></h2><p class="article-text">
        El conflicto entre Anthropic y el Pent&aacute;gono escal&oacute; a&uacute;n m&aacute;s esta semana cuando la firma present&oacute; una demanda contra el Gobierno de EE.UU. en la que apuntaba que no se puede estigmatizar a una empresa por defender sus valores de seguridad.
    </p><p class="article-text">
        Parad&oacute;jicamente, el rechazo al acuerdo con el Gobierno ha disparado la popularidad de Anthropic entre los consumidores civiles y ha generado el apoyo de grandes titanes de la tecnolog&iacute;a como Microsoft, empresa que solicit&oacute; una orden judicial que bloquee temporalmente la designaci&oacute;n de esa empresa como &ldquo;riesgo para la cadena de suministro&rdquo;.
    </p><p class="article-text">
        Los titanes de la nube Google y Amazon, que tambi&eacute;n integran tecnolog&iacute;a de Anthropic, aclararon a sus clientes que, fuera del &aacute;mbito de defensa, los productos de Anthropic seguir&aacute;n estando disponibles en sus plataformas.
    </p><p class="article-text">
        El p&uacute;blico estadounidense tom&oacute; las l&iacute;neas rojas de Anthropic como un sin&oacute;nimo de &ldquo;seguridad y &eacute;tica&rdquo; y como una alternativa responsable en el mercado de la IA.
    </p><p class="article-text">
        Los civiles optaron por catapultar a Claude al n&uacute;mero 1 en la lista de las mejores aplicaciones gratuitas de Apple tras el rechazo del Pent&aacute;gono.
    </p><p class="article-text">
        Los usuarios de pago de Anthropic, que fue fundada por exempleados de OpenAI, se han duplicado este a&ntilde;o. Tambi&eacute;n ha alcanzado una valoraci&oacute;n de 380.000 millones de d&oacute;lares, por encima de empresas como Coca-Cola o Goldman Sachs, y prev&eacute; ingresos para finales de 2026 que podr&iacute;an superar a los de su rival OpenAI.
    </p><h2 class="article-text"><strong>Preocupaci&oacute;n interna en OpenAI</strong></h2><p class="article-text">
        Mientras, la directora de la divisi&oacute;n de Rob&oacute;tica de OpenAI, Caitlin Kalinowski, anunci&oacute; el s&aacute;bado pasado su dimisi&oacute;n en la compa&ntilde;&iacute;a debido a profundas preocupaciones &eacute;ticas sobre el reciente acuerdo de colaboraci&oacute;n firmado entre la tecnol&oacute;gica y el Pent&aacute;gono.
    </p><p class="article-text">
        &ldquo;La vigilancia de estadounidenses sin supervisi&oacute;n judicial y la autonom&iacute;a letal sin autorizaci&oacute;n humana son l&iacute;neas que merec&iacute;an m&aacute;s deliberaci&oacute;n de la que recibieron&rdquo;, afirm&oacute; la ingeniera, subrayando que su decisi&oacute;n se basa en una cuesti&oacute;n de &ldquo;principios&rdquo;.
    </p><h2 class="article-text"><strong>El silencio estrat&eacute;gico de Google</strong></h2><p class="article-text">
        No obstante, algunos analistas apuntan a que los ojos tienen que ponerse en Google, gigante tecnol&oacute;gico que ha adoptado una postura pragm&aacute;tica que le est&aacute; permitiendo ganar terreno de forma acelerada.
    </p><p class="article-text">
        Mientras Anthropic se desangra en los tribunales y OpenAI enfrenta cr&iacute;ticas, Alphabet (matriz de Google) ha comenzado a desplegar sus agentes de IA para la plantilla de 3 millones de personas del Pent&aacute;gono en tareas no clasificadas.
    </p><p class="article-text">
        Analistas de firmas como PitchBook se&ntilde;alan al medio Axios que la solidez financiera de Google le permite absorber el coste reputacional y los riesgos de estos contratos de una manera que las empresas emergentes no pueden. 
    </p><p class="article-text">
        Por Sarah Y&aacute;&ntilde;ez-Richards, a la agencia EFE
    </p>]]></description>
      <dc:creator><![CDATA[elDiarioAR]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiarioar.com/tecnologia/anthropic-openai-google-tres-estrategias-opuestas-tablero-belico-ia_1_13063213.html]]></guid>
      <pubDate><![CDATA[Thu, 12 Mar 2026 14:36:49 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/f74dd22e-4ade-464d-956b-17cf94eafe04_16-9-discover-aspect-ratio_default_0.jpg" length="964013" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/f74dd22e-4ade-464d-956b-17cf94eafe04_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="964013" width="1200" height="675"/>
      <media:title><![CDATA[Anthropic, OpenAI y Google: tres estrategias opuestas ante el tablero bélico de la IA]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/f74dd22e-4ade-464d-956b-17cf94eafe04_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Anthropic,Google,OpenAl,Inteligencia Artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Qué es Anthropic, la startup que desafía a Trump y su “estilo dictador” por el uso de IA en la guerra]]></title>
      <link><![CDATA[https://www.eldiarioar.com/tecnologia/anthropic-startup-planta-cara-trump-estilo-dictador-ia-guerra_1_13054142.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/c5f82495-f384-4c4b-b639-98564c800ae9_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Qué es Anthropic, la startup que desafía a Trump y su “estilo dictador” por el uso de IA en la guerra"></p><div class="subtitles"><p class="subtitle">El presidente amenaza con expulsar del mercado a una de las empresas con más potencial del mundo por negarse a levantar sus protecciones éticas para atacar Irán.</p></div><p class="article-text">
        <strong>Anthropic </strong>es uno de los mejores ejemplos de c&oacute;mo funciona el autobombo en la industria de la inteligencia artificial. Esta startup suele ser una gran desconocida fuera del sector. ChatGPT, Google e incluso algunos modelos chinos acaparan m&aacute;s atenci&oacute;n que ella. Algo que contrasta con lo que ocurre de puertas adentro en eventos como el Mobile World Congress celebrado esta semana en Barcelona, donde un alto ejecutivo de una gran teleco europea reconoc&iacute;a en privado que lo que est&aacute; haciendo Anthropic es &ldquo;de lo m&aacute;s impresionante&rdquo; que vio en toda su carrera.
    </p><p class="article-text">
        En esos c&iacute;rculos especializados, afirmar que dentro de 10 a&ntilde;os Anthropic ser&aacute; considerada la gran ganadora de la revoluci&oacute;n de la IA ni siquiera se considera una apuesta demasiado arriesgada. Al menos as&iacute; era hasta esta semana, despu&eacute;s de que Donald Trump se haya propuesto acabar con ella tras denunciar que est&aacute; dirigida por &ldquo;locos de izquierda&rdquo; que intentan &ldquo;dictar&rdquo; c&oacute;mo el &ldquo;gran Ej&eacute;rcito de Estados Unidos lucha y gana guerras&rdquo;.
    </p><p class="article-text">
        El motivo es que en el momento clave de la ofensiva contra Ir&aacute;n, Anthropic se neg&oacute; a ceder a las exigencias del Pent&aacute;gono para utilizar sus modelos de inteligencia artificial sin restricciones. El gobierno estadounidense exig&iacute;a usar su tecnolog&iacute;a para &ldquo;todos los prop&oacute;sitos legales&rdquo;, pero la startup se opuso al considerar que los &ldquo;guardarra&iacute;les&rdquo; establecidos en su contrato de 200 millones de d&oacute;lares con el Departamento de Guerra eran fundamentales para impedir que la IA tome decisiones equivocadas con armas aut&oacute;nomas o se use para la vigilancia masiva de su propia poblaci&oacute;n.
    </p><p class="article-text">
        La reacci&oacute;n de la Casa Blanca fue furibunda y ejemplarizante. No solo impidi&oacute; que Anthropic pueda volver a contratar con la administraci&oacute;n, sino que quiere etiquetarla como un &ldquo;riesgo para la cadena de suministro&rdquo;. Esto implicar&iacute;a que ninguna empresa que contrate los servicios de la startup podr&iacute;a tener relaciones con el Estado. En la pr&aacute;ctica, es un asesinato corporativo. 
    </p><p class="article-text">
        La disputa permanece abierta y el resultado ser&aacute; una prueba de fuego sobre los l&iacute;mites de seguridad de la tecnolog&iacute;a m&aacute;s potente del mundo. Anthropic cree que si Trump se impone, se habr&aacute; iniciado la cuenta atr&aacute;s para el primer gran desastre b&eacute;lico de la era de la inteligencia artificial.
    </p><h2 class="article-text">Dario Amodei, el evangelista de la IA General y la seguridad</h2><p class="article-text">
        No es casualidad que en medio de toda esta situaci&oacute;n est&eacute; <strong>Dario Amodei</strong>, el cofundador y director ejecutivo de Anthropic. Este empresario e investigador de 43 a&ntilde;os fue el vicepresidente de OpenAI hasta 2021, cuando abandon&oacute; la organizaci&oacute;n al considerar que no estaba poniendo las suficientes medidas de seguridad para evitar el mal uso o descarrilamiento de una tecnolog&iacute;a que considera tan poderosa. Junto a su hermana Daniela y otros exmiembros de OpenAI, fund&oacute; Anthropic con el objetivo de desarrollar IA verdaderamente segura. 
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_default_0.jpg"
                    alt="Dario Amodei, en una imagen de archivo"
                >

            
            </picture>

            
            
                            <figcaption class="image-footer">
            <span class="title">
                Dario Amodei, en una imagen de archivo                            </span>
                                    </figcaption>
            
                </figure><p class="article-text">
        Desde entonces, la obsesi&oacute;n de los Amodei fue que la inteligencia artificial &ldquo;se alinee con los valores humanos&rdquo;. Dario se convirti&oacute; en una de las voces m&aacute;s influyentes en los debates sobre los riesgos de esta tecnolog&iacute;a y c&oacute;mo deber&iacute;an imponerse m&eacute;todos de control. Public&oacute; varios ensayos al respecto. En el &uacute;ltimo, <a href="https://www.darioamodei.com/essay/the-adolescence-of-technology" target="_blank" data-mrf-recirculation="links-noticia" class="link"><em>La Adolescencia de la Tecnolog&iacute;a</em></a>, publicado en enero, pide que la IA se rija por una &ldquo;constituci&oacute;n&rdquo; que permita todas sus decisiones puedan ser interpretables por humanos. 
    </p><p class="article-text">
        Tambi&eacute;n alerta sobre el peligro de que la IA sea capturada por reg&iacute;menes autoritarios y se convierta en una herramienta de vigilancia masiva. &ldquo;La humanidad est&aacute; a punto de recibir un poder casi inimaginable, y es profundamente incierto si nuestros sistemas sociales, pol&iacute;ticos y tecnol&oacute;gicos poseen la madurez para ejercerlo&rdquo;, escribe: &ldquo;Entrenar modelos de IA es m&aacute;s un arte que una ciencia, m&aacute;s parecido a 'cultivar' algo que a 'construirlo'. Ahora sabemos que es un proceso donde muchas cosas pueden salir mal&rdquo;.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">La humanidad está a punto de recibir un poder casi inimaginable, y es profundamente incierto si nuestros sistemas sociales, políticos y tecnológicos poseen la madurez para ejercerlo</p>
                <div class="quote-author">
                        <span class="name">Dario Amodei</span>
                                        <span>—</span> cofundador de Anthropic
                      </div>
          </div>

  </blockquote><p class="article-text">
        Su figura, no obstante, es controvertida incluso entre los especialistas que comparten esta postura. Amodei no es solo uno de los mayores evangelistas sobre la seguridad de la IA. Tambi&eacute;n lo es sobre la inminencia de la <strong>Inteligencia Artificial General</strong>, esa m&aacute;quina autoconsciente y capaz de mejorarse a s&iacute; misma que puede generar un peligro existencial para la raza humana. Durante a&ntilde;os, asegur&oacute; que este momento llegar&iacute;a a &ldquo;finales de 2026&rdquo;. En entrevistas m&aacute;s recientes empez&oacute; a retrasarlo hasta 2027-2029. 
    </p><p class="article-text">
        Sus creencias casi religiosas sobre la IA General, unidas a la postura determinista sobre el potencial de esta tecnolog&iacute;a (para &eacute;l, es la pieza clave sobre la que pivota el futuro de la humanidad), hizo que muchos expertos consideren que forma parte de su propio autobombo. Amodei convirti&oacute; la IA segura y &eacute;tica en la estrategia de mercado de Anthropic. Algo que la hab&iacute;a hecho una de las preferidas para los clientes corporativos antes de que Trump amenazara con sacarla del mapa precisamente por anteponer sus prioridades &eacute;ticas a la seguridad nacional.
    </p><h2 class="article-text">C&oacute;mo Anthropic lleg&oacute; a ser tan importante</h2><p class="article-text">
        El discurso de Amodei est&aacute; reflejado en los estatutos de Anthropic. La startup est&aacute; constituida como una corporaci&oacute;n de beneficio p&uacute;blico. Esto significa que, legalmente, la empresa no est&aacute; obligada a priorizar solo el beneficio econ&oacute;mico de sus accionistas, sino tambi&eacute;n construir &ldquo;sistemas de IA que sean controlables, interpretables y seguros&rdquo;.
    </p><p class="article-text">
        Esto la convirti&oacute; en un socio muy fiable para el sector corporativo. &ldquo;Fueron los que mejor entendieron que las empresas no solo necesitaban un chatbot de usuarios, sino un producto que pusiera mucho foco en la seguridad, la privacidad y el control de los datos&rdquo;, explica <strong>Diego M&eacute;ndez</strong>, director ejecutivo de la firma de software espa&ntilde;ola Tailor Hub.
    </p><p class="article-text">
        &ldquo;Pero lo interesante es que no es solo un producto, sino una apuesta por una forma diferente de desarrollar software&rdquo;, detalla M&eacute;ndez. Y es aqu&iacute; donde conecta con posicionamientos como los que expresaban los grandes ejecutivos del Mobile World Congress y el entusiasmo con Anthropic en los c&iacute;rculos especializados. Su herramienta Claude Code est&aacute; cambiando las reglas del juego para los desarrolladores de software.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Lo interesante es que Claude Code no solo es un producto, sino una apuesta por una forma diferente de desarrollar software</p>
                <div class="quote-author">
                        <span class="name">Diego Méndez</span>
                                        <span>—</span> director ejecutivo de la firma de software española Tailor Hub
                      </div>
          </div>

  </blockquote><p class="article-text">
        En lugar de sugerir c&oacute;digo l&iacute;nea a l&iacute;nea, como hacen la mayor&iacute;a de asistentes actuales, Claude Code puede asumir tareas completas de desarrollo y ejecutarlas de principio a fin. Funciona como un agente aut&oacute;nomo que opera directamente desde la terminal o el navegador del usuario al que se le pueden dar instrucciones en lenguaje natural. Esto facilita que personas con pocos conocimientos t&eacute;cnicos puedan abordar tareas sencillas, como crear prototipos de apps o p&aacute;ginas web, aunque sigue siendo necesaria cierta supervisi&oacute;n.
    </p><p class="article-text">
        En entornos profesionales, encargos como crear funciones nuevas dentro de una aplicaci&oacute;n, corregir errores detectados por los usuarios o integrar un determinado programa con otros servicios digitales pueden realizarse con &oacute;rdenes sencillas. &ldquo;Para nosotros se convirti&oacute; en un compa&ntilde;ero de trabajo indispensable&rdquo;, expone el responsable de Tailor Hub. El cambio de la herramienta de Anthropic es estructural, permitiendo que los desarrolladores pasen de ser &ldquo;picadores de c&oacute;digo&rdquo; a &ldquo;orquestadores de agentes&rdquo;, con ritmos de trabajo muy superiores. 
    </p><p class="article-text">
        En este sector, la asimilaci&oacute;n fue extremadamente r&aacute;pida. Seg&uacute;n un informe de SemiAnalysis, Claude Code es el responsable del 4% de todo el c&oacute;digo que se sube a GitHub, una red social y repositorio donde los programadores guardan, comparten y trabajan juntos en el c&oacute;digo de sus aplicaciones.
    </p><p class="article-text">
        Es una revoluci&oacute;n que las empresas de software est&aacute;n aplicando ya a campos fuera de la programaci&oacute;n &ldquo;como finanzas o administraci&oacute;n&rdquo; y que avisan que terminar&aacute; llegando a todos los sectores. El terremoto ya tiene efecto en las cuentas de Anthropic, que multiplic&oacute; sus ingresos por veinte en apenas un a&ntilde;o, pasando de apenas mil millones a principios de 2025 a rozar los veinte mil millones de d&oacute;lares en marzo de 2026. 
    </p><h2 class="article-text">Qu&eacute; pasa si Anthropic cede</h2><p class="article-text">
        Una herramienta que permite automatizar procesos de manera segura es un importante recurso militar para el Pent&aacute;gono. Por eso Amodei piensa que la bravata de la Casa Blanca se debe a que &ldquo;no le dimos elogios al estilo dictador a Trump&rdquo;, en contraste con el jefe de OpenAI, Sam Altman. As&iacute; lo expres&oacute; en una carta enviada a sus empleados este jueves.
    </p><p class="article-text">
        Sin embargo, este viernes el Departamento de Guerra puls&oacute; el bot&oacute;n. Los productos de Anthropic ya son considerados por el Gobierno estadounidense como un riesgo para la cadena de suministro. &ldquo;Bueno, desped&iacute; a Anthropic. Anthropic est&aacute; en problemas porque los desped&iacute; como perros&rdquo;, declar&oacute; Donald Trump. Con todo, informaciones de Bloomberg y otros medios apuntan a que las negociaciones entre la startup y el Pent&aacute;gono para reconducir la situaci&oacute;n contin&uacute;an.
    </p><p class="article-text">
        De no conseguirlo, ambas partes perder&iacute;an. La startup ser&iacute;a liquidada, pero para EE.UU. perder a Anthropic no solo implicar&iacute;a no tener acceso a Claude Code, sino tambi&eacute;n a uno de sus mayores activos estrat&eacute;gicos en el desarrollo de inteligencia artificial. 
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">El gran problema de todo esto es China, donde las empresas no pueden imponer este tipo de salvaguardas al gobierno. Es una desventaja estratégica</p>
                <div class="quote-author">
                        <span class="name">Jesús Alcalde</span>
                                        <span>—</span> jefe de Tecnología de la firma de ciberseguridad española Flameera
                      </div>
          </div>

  </blockquote><p class="article-text">
        &ldquo;El gran problema de todo esto es China, donde las empresas no pueden imponer este tipo de salvaguardas al gobierno. Es una desventaja estrat&eacute;gica&rdquo;, expresa <strong>Jes&uacute;s Alcalde</strong>, jefe de Tecnolog&iacute;a de la firma de ciberseguridad espa&ntilde;ola Flameera. &ldquo;Lo que no quieren es que si ma&ntilde;ana hay un conflicto por Taiw&aacute;n, Estados Unidos llegue con Anthropic capado mientras el Ej&eacute;rcito chino dispone de todos sus modelos liberados y sin problemas&rdquo;.
    </p><p class="article-text">
        &ldquo;Al final estamos en una guerra armament&iacute;stica&rdquo;, contin&uacute;a el especialista. &ldquo;Todos estamos de acuerdo en que no queremos armamento nuclear, pero como el vecino lo tiene, entonces yo tambi&eacute;n lo quiero para poder defenderme&rdquo;.
    </p><p class="article-text">
        Pero la batalla de Anthropic por mantener sus medidas de seguridad no solo afecta a esta empresa y al Ej&eacute;rcito de EE.UU. Si la startup termina perdiendo su disputa con Trump y deja caer esas protecciones, sentar&aacute; un precedente en el que se habr&aacute; impuesto el &ldquo;todo vale&rdquo; para esta tecnolog&iacute;a. En cuestiones como la ciberseguridad, esto implica que la IA liberada pueda convertirse en un &ldquo;gran amplificador del crimen&rdquo;, capaz de dise&ntilde;ar los mejores ataques y virus capaces de reprogramarse a s&iacute; mismos en tiempo real. 
    </p><p class="article-text">
        &iquest;C&oacute;mo terminar&aacute; esto? &ldquo;En mi opini&oacute;n, es como intentar tapar una fuga de agua en una presa con las manos&rdquo;, confiesa Alcalde. &ldquo;Con otro tipo de armas, como las nucleares, pod&eacute;s generar cuellos de botella. Ten&eacute;s que tener acceso a determinados materiales y maquinaria. Pero la IA es informaci&oacute;n. Si no lo hac&eacute;s vos, al final lo va a terminar haciendo otro&rdquo;. 
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiarioar.com/tecnologia/anthropic-startup-planta-cara-trump-estilo-dictador-ia-guerra_1_13054142.html]]></guid>
      <pubDate><![CDATA[Mon, 09 Mar 2026 17:32:55 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/c5f82495-f384-4c4b-b639-98564c800ae9_16-9-discover-aspect-ratio_default_0.jpg" length="475225" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/c5f82495-f384-4c4b-b639-98564c800ae9_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="475225" width="1200" height="675"/>
      <media:title><![CDATA[Qué es Anthropic, la startup que desafía a Trump y su “estilo dictador” por el uso de IA en la guerra]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/c5f82495-f384-4c4b-b639-98564c800ae9_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia Artificial,Anthropic,EE.UU.]]></media:keywords>
    </item>
  </channel>
</rss>
