📂 Categoría: AI,Tech,claude,claude-code,anthropic,leak,source-code,github,inside-business | 📅 Fecha: 1775083918
🔍 En este artículo:
Sigrid Jin se despertó a las 4 a. m. del martes. Su teléfono estaba “explotando” con la filtración de Claude Code.
El estudiante de 25 años de la Universidad de Columbia Británica se puso manos a la obra. Se necesitaron dos humanos, 10 OpenClaws, una computadora portátil MacBook Pro y unas horas para recrear el código fuente del famoso agente de IA y compartirlo con el mundo.
Tres horas antes, el usuario de X Chaofan Shou anunció que había descubierto una liberación accidental de 512.000 líneas del código fuente de Claude Code, incluidos detalles sobre cómo funcionaba la herramienta y pruebas de nuevas funciones.
Aunque Anthropic rápidamente tomó medidas enérgicas contra los Claudes no autorizados, la reproducción de Jin, que creó con Yeachan Heo, con sede en Seúl, usando Python y bajo el nombre «Claw Code», hasta ahora ha salido ilesa.
«Sorprendentemente, nadie de Anthropic o GitHub se puso en contacto con nosotros», escribió Jin a Business Insider, refiriéndose al centro de gestión de código centralizado donde ahora reside Claw Code. «Nos estamos preparando continuamente para cualquier posible acción legal, ya que nuestro objetivo principal es garantizar que procedemos de manera completamente legítima».
Es un giro irónico para una industria que ha sido acusada de utilizar materiales publicados para entrenar sus modelos y para una empresa que promociona su compromiso con la seguridad como una ventaja competitiva. Los programadores también están encantados de descubrir una herramienta que se ha convertido en fundamental para su trabajo, especialmente después del lanzamiento de modelos aclamados como Opus 4.5 y 4.6 en los últimos meses.
«La mejor parte» de todo este debate, dijo Jin, es que da como resultado una mayor democratización de las herramientas de codificación SD4JHxdlc.
«La gente sin conocimientos técnicos utiliza estos agentes para construir cosas reales», dijo. «Estamos hablando de cardiólogos que crean aplicaciones de atención al paciente y abogados que automatizan la aprobación de permisos. Se ha convertido en una fiesta masiva para compartir».
Anthropic dijo que la filtración se debió a un error humano y no a una violación de seguridad. «Estamos implementando medidas para evitar que esto vuelva a suceder», escribió un portavoz.
Mientras tanto, los expertos en tecnología están difundiendo sus copias en servidores privados de Discord, destrozando características recientemente descubiertas como los verbos giratorios, la codificación de mascotas y el tablero «fucks» (así lo llamó el creador de Claude Code, Boris Cherny) y preguntándose cómo se filtró una de las compañías de inteligencia artificial más grandes del mundo en primer lugar.
La difusión de la filtración fue una “revelación del flujo de trabajo”
El mensaje de Shou en el minuto 1:23 encendió la cerilla.
En X, Shou creó un enlace a un archivo zip que contenía el código filtrado. Es el CTO de Fuzzland y abandonó el doctorado de UC Berkeley. programa, según su perfil de LinkedIn. El enlace ahora conduce a un error 404.
Una hora más tarde, el usuario X @nichxbt agregó el código filtrado a su GitHub, generando miles de copias. El martes por la noche, Anthropic había presentado una amplia solicitud de eliminación por derechos de autor, lo que inicialmente llevó a GitHub a eliminar más de 8.000 versiones del código filtrado.
El escaneo detectó repositorios no vinculados de algunos codificadores. El miércoles por la mañana, Anthropic limitó su solicitud de eliminación.
«Hemos eliminado el aviso para todos excepto para el repositorio que nombramos» – el de @nichxbt – «y GitHub ha restablecido el acceso a las bifurcaciones afectadas», dijo un portavoz de Anthropic en un comunicado.
Hasta el miércoles por la tarde, otros sitios web seguían ofreciendo acceso a código filtrado o herramientas basadas en lo que alguna vez fue propiedad de Anthropic. El código continúa circulando en mensajes privados y enlaces archivados en línea. La reproducción de código de garra de Jin ahora tiene 105.000 estrellas y 95.000 bifurcaciones en GitHub. En un día, 5.000 personas se unieron al servidor Discord de Jin, una comunidad coreana de LLM de código abierto, dijo.
Mientras tanto, los competidores de Anthropic parecen estar echando más leña al fuego. Jin publicó que xAI le envió créditos de Grok. «¡Estoy muy emocionado de ver lo que continúas construyendo!» xAI Umesh Khanna respondió.
Jin dijo que todo esto ha sido una «revelación del flujo de trabajo». Esto demostró que podía utilizar la IA para recrear una herramienta completa en un nuevo lenguaje: Python, en su caso. «El hecho de que esto sea posible, combinado con la rapidez con la que se puede hacer, es lo que realmente sorprende a la gente».
Sigrid Jin creó Claw Code con un asistente humano y 10 OpenClaws. Sigrid genio
Qué había en la filtración: verbos giratorios, mascotas codificadas y el cuadro de «putas»
Gabriel Bernadett-Shapiro, científico investigador de IA en SentinelOne, dijo a Business Insider que la filtración fue particularmente notable en la forma en que abrió el telón sobre el enfoque de Anthropic sobre el futuro de los agentes de codificación de IA.
«Para mí, mi conclusión no fue: ‘Oh, fueron violadas gravemente'», dijo Bernadett-Shapiro a Business Insider. “Fue: ‘Oye, acabamos de tener una visión muy clara de hacia dónde se dirigen los agentes codificadores de IA’.
Bernadett-Shapiro dijo que los competidores de Anthropic probablemente hayan tomado notas sobre cómo el modelador de IA aborda cuestiones como la memoria del agente.
«Es probable que cualquier competidor utilice ese conocimiento y diga: ‘Está bien, así es como lo hace Anthropic, ¿verdad?’ dijo. «Como, ‘¿Se ajusta esto a nuestro modelo?’ »
Poco después de la filtración, los técnicos comenzaron a clasificar miles de líneas de código.
Captaron referencias a nuevos modelos – Opus 4.7, Soneto 4.8 – y nombres en clave como “Carpincho” y “Tengu”. Un usuario de Reddit dijo que vio una mascota parecida a un Tamagotchi que «se sienta junto a tu área de entrada y reacciona a tu codificación».
Un usuario encontró una referencia a «KAIROS», un agente que opera 24 horas al día, 7 días a la semana y crea un registro diario. El usuario describió a KAIROS como un “compañero de equipo omnisciente que se da cuenta y maneja todo, antes incluso de pensar en preguntar”.
Cherny, el creador de Claude Code, sonóescribiendo que Anthropic “todavía está experimentando” y que el 90% de las pruebas no se envían. «Aún no estoy seguro de esto», dijo, refiriéndose a KAIROS. “¿Deberíamos enviarlo?” »
Otras características provocaron alegría, como la lista de «verbos giratorios». Incluyen precipitación, recombobulación y reversión. «Gracias Anthropic por mi nueva lista de verbos favoritos», un usuario de X escribió.
Luego están los análisis malditos. Un usuario notó que Claude estaba grabando malas palabras como «is_negative». Escribió que Anthropic estaba «monitoreando la frecuencia con la que te enojas con tu IA».
Cherny respondió que estas señales determinan si el usuario tiene una buena experiencia. «Lo ponemos en un marcador y lo llamamos gráfico de ‘basura'», escribió.
¿Quién tiene la culpa del desastre del “nivel novato”?
Aunque Delip Rao, un investigador de inteligencia artificial de la Universidad de Pensilvania que anteriormente trabajó en Amazon y Twitter, no estaba interesado en el contenido de la filtración, sí estaba interesado en cómo sucedió.
«Anthropic contrata gente realmente inteligente», dijo. «Es muy poco probable que alguien que trabaje en Anthropic cometa este tipo de error inicial», dijo.
Especuló que un agente de IA podría estar involucrado, comparándolo con una reciente interrupción en las operaciones de comercio electrónico de Amazon, que estaba vinculada a su asistente de codificación de IA Q. «A medida que crece la confianza, tendemos a examinar menos su trabajo», dijo Rao.
Otros en línea han compartido teorías similares. Un usuario capturó una captura de pantalla de un tweet de Cherny, en el que escribió: «El 100% de mis contribuciones a Claude Code fueron escritas por Claude Code». Recibió cientos de me gusta.
Cherny respondió directamente en esta posición, reprimiendo los rumores. «Fue un error humano», escribió. «Nuestro proceso de implementación tiene algunos pasos manuales y no realizamos ninguno correctamente. Hemos realizado algunas mejoras y estamos trabajando para agregar más controles de estado».
La respuesta es acelerar, no frenar, escribió Cherny. Su solución: “más automatización y Claude comprobando los resultados”.
David Borish, estratega de inteligencia artificial de Trace3, inicialmente se sintió mal por el director ejecutivo de Anthropic, Dario Amodei. Vio personas en línea usando lecciones del código para mejorar sus propios productos, incluso si no eran clientes de Anthropic. Como empresario, no podía imaginar tal filtración.
Aún así, Borish culpó a la velocidad de Anthropic. Se refirió a la filosofía de “moverse rápido y romper cosas”. «Es imposible tener controles y equilibrios seguros y actuar con tanta rapidez», dijo Borish.
No te preocupes: el empleado que provocó la filtración no ha sido despedido. «Fue un error honesto», dijo Cherny. escribió. «Sucede».



