📂 Categoría: AI,Tech,anthropic,ai,claude-code,artificial-intelligence,tech,innovation,copyright,coding | 📅 Fecha: 1775077920
🔍 En este artículo:
Cuando un segmento del código fuente del famoso agente de inteligencia artificial de Anthropic, Claude Code, terminó en GitHub el martes, fue una pelea voraz.
Ingenieros de todo tipo lo absorbieron lo más rápido que pudieron, con la esperanza de aprender de él y tal vez usarlo para mejorar sus propios proyectos.
Si usar información robada para mejorar la inteligencia le suena familiar, es porque eso es exactamente lo que las grandes empresas de inteligencia artificial han estado haciendo durante años mientras compiten para entrenar sus grandes modelos de lenguaje, incluido Anthropic.
Por lo tanto, no deja de tener un toque de ironía que, para evitar que los ingenieros accedan al código filtrado, Anthropic publicó rápidamente un aviso de eliminación de derechos de autor en el repositorio de GitHub que lo aloja.
«Hemos emitido una eliminación de DMCA contra un repositorio que alberga una filtración del código fuente de Claude Code y sus bifurcaciones», dijo un portavoz de Anthropic, refiriéndose a la Ley de Derechos de Autor del Milenio Digital.
Anthropic, OpenAI y Google han sido demandados por el uso de material protegido por derechos de autor (incluidos libros publicados, artículos, revistas científicas y otros contenidos encontrados en línea) sin permiso explícito. En respuesta, autores, artistas y editores han utilizado las leyes de derechos de autor para exigir responsabilidad y, a menudo, obtener un pago.
En septiembre, un tribunal ordenó a Anthropic pagar 1.500 millones de dólares en daños y perjuicios en una demanda colectiva presentada por autores y editores (incluidos los demandantes principales Andrea Bartz, Charles Graeber y Kirk Wallace Johnson) por acusaciones de que utilizó libros pirateados y bibliotecas fantasma para entrenar a Claude.
Reddit demandó a Anthropic en junio pasado por extraer volúmenes de contenido generado por usuarios para entrenar sus modelos sin permiso ni compensación de los usuarios.
Y el mes pasado, Universal Music Group, Concord y ABKCO presentaron una demanda contra Anthropic por descargar ilegalmente más de 20.000 canciones con derechos de autor, además de entrenar a sus modelos.
Hoy, la situación se ha revertido y Anthropic se basa en las leyes de derechos de autor para proteger sus propias creaciones. «Estamos implementando medidas para evitar que esto vuelva a suceder», dijo un portavoz de Anthropic.
Afortunadamente para la empresa, es posible que la filtración no sea tan grave como algunos piensan.
Paul Price, especialista en ciberseguridad y fundador de la firma de piratería ética Code Wall, que recientemente descubrió vulnerabilidades en el chatbot interno de McKinsey, Lilli, dijo que la filtración de Anthropic no reveló nada crítico.
«Es más vergonzoso que dañino. La mayoría de las cosas realmente jugosas están en sus modelos internos y eso no ha sido revelado», dijo a Business Insider.
Dijo que la empresa expuso inadvertidamente su «arnés», una infraestructura de software que normalmente se utiliza para conectar grandes modelos de lenguaje con el contexto más amplio en el que se utilizan.
«Claude Code es uno de los arneses de agentes mejor diseñados del mercado y ahora podemos ver cómo abordan problemas difíciles», añadió Price, señalando que también podría resultar útil para los competidores.
La filtración también destacó una paradoja del ciclo exagerado de la IA: las mismas herramientas que hacen que crear y enviar productos sea más rápido que nunca también facilitan la filtración, replicación y difusión instantánea de información, ya sea sensible o no assujxz4.



