📂 Categoría: Law,News,Tech,elon-musk,sam-altman,musk-v-altman,lawsuit,trial,litigation,technology,court,legal | 📅 Fecha: 1778193570
🔍 En este artículo:
Cuando la demanda entre Elon Musk y OpenAI finalizó su segunda semana, el CEO de Tesla comenzó a sumar puntos contra Sam Altman.
Sus testigos recibieron tres testimonios sólidos sobre cómo Altman dirige OpenAI como director ejecutivo, lo que generó preocupaciones sobre su dedicación a la seguridad de la IA, la misión de la organización sin fines de lucro y su honestidad como líder de la organización.
Queda por ver qué hará el jurado con el testimonio y qué papel desempeñará en su decisión de encontrar responsables a Altman y al fabricante de ChatGPT en este caso. Musk alega que Altman y el presidente de OpenAI, Greg Brockman, «saquearon» la organización benéfica que iniciaron juntos en 2015 al formar una asociación con Microsoft.
Esta semana, el equipo legal de Musk convocó a un desfile de testigos que cuestionaron si Altman estaba actuando en el mejor interés de la organización sin fines de lucro.
El jueves, una ex investigadora de seguridad de OpenAI describió una lenta erosión de los equipos de seguridad de la empresa, lo que la llevó a dejar la empresa. Los testigos también compartieron historias de que la empresa había lanzado productos sin las revisiones de seguridad adecuadas o sin que la junta directiva fuera informada.
Esto es lo que dijeron:
La investigadora de seguridad de OpenAI dice que renunció por preocupaciones de seguridad
Rosie Campbell explica su paso por OpenAI como investigadora de seguridad. Imágenes Bloomberg/Getty
Rosie Campbell, ex investigadora de seguridad de inteligencia artificial en OpenAI, dijo que pensaba que la organización estaba abandonando su compromiso con la seguridad cuando trabajó en ella entre 2021 y 2024.
Campbell explicó que cuando empezó a trabajar en OpenAI, la empresa tenía dos equipos dedicados a la seguridad a largo plazo de la inteligencia artificial. Uno de ellos era garantizar que la IA estuviera alineada con los valores humanos. El otro, en el que trabajó, tenía como objetivo preparar al mundo para la inteligencia artificial sobrehumana.
Pero con el tiempo, OpenAI se ha centrado más en el producto, afirmó.
Ambos equipos de seguridad de IA a largo plazo han sido eliminados. Campbell dijo que aproximadamente la mitad de su equipo dejó OpenAI en lugar de encontrar otro trabajo en la empresa.
Cuando la junta directiva de OpenAI destituyó a Altman como director ejecutivo, Campbell firmó una carta pidiendo su reinstalación. Ella le dijo al jurado que hizo esto solo porque temía que sin él, los empleados de OpenAI terminarían trabajando en Microsoft, que, según ella, sería aún menos probable que se dedicara a la seguridad de la IA.
«Entendí en ese momento que la mejor manera de que OpenAI no se desintegrara y colapsara sería que Sam regresara», dijo.
En un momento, Campbell le dio crédito a OpenAI. Dijo que xAI, la empresa de inteligencia artificial de Musk, probablemente tenía un enfoque de seguridad inferior al de OpenAI.
Ex miembro de la junta llamó mentiroso a Altman
Tasha McCauley, fotografiada aquí en 2014, estaba en la junta directiva de OpenAI que derrocó a Sam Altman. Jerod Harris/Getty Images para Kairos Company
Una declaración de Tasha McCauley se suma al testimonio anterior de la ex miembro de la junta directiva de OpenAI, Helen Toner, sobre lo poco que confiaban en Altman y la «cultura tóxica» que presidía.
Según McCauley, Altman había causado «caos» y «crisis» al fomentar una «cultura de mentiras y una cultura de engaño» que se extendió a otros miembros del liderazgo de OpenAI.
McCauley testificó que Altman había sido deshonesto sobre el lanzamiento de un modelo de inteligencia artificial, GPT4-Turbo. Altman dijo falsamente que el departamento legal de OpenAI le dijo que no necesitaba ser revisado por un comité de seguridad interna antes de su lanzamiento en India, dijo McCauley.
El ex miembro de la junta dijo que la deshonestidad de Altman provocaba «eventos de crisis» cada pocos meses. Dijo que recibió un correo electrónico de Ilya Sutskever, ahora ex miembro de la junta directiva de OpenAI, que describía «docenas de páginas de ejemplos de diferentes eventos caóticos que sucedieron debido al comportamiento de Sam o las mentiras que dijo».
El experto en organizaciones sin fines de lucro de Musk también criticó a Altman
David Schizer, exdecano de la Facultad de Derecho de Columbia, explica para Elon Musk como testigo experto sobre gobernanza de organizaciones sin fines de lucro. Tom Williams/CQ-Roll Call, Inc vía Getty Images
Luego, los abogados de Musk llamaron al estrado a David Schizer para hablar sobre la legislación sin fines de lucro. Esto puede parecer aburrido, pero es la clave del caso, y el profesor de derecho de la Facultad de Derecho de Columbia hizo un buen trabajo, con la ayuda del abogado de Musk, hablando de Altman.
El abogado de Musk, Steven Molo, revisó una lista de las acciones de Altman, tal como las describieron previamente los testigos, para determinar si eran consistentes con la misión de seguridad de OpenAI y las «costumbres y prácticas sin fines de lucro».
La respuesta, casi inevitablemente, fue no.
Por ejemplo, Molo preguntó a Schizer sobre las quejas de que OpenAI, bajo Altman, lanzó productos sin el conocimiento de la junta. Una pregunta se refería a las quejas de que Microsoft probó una versión de GPT-4 sin pasar primero por el proceso de revisión de seguridad de la empresa.
«La junta directiva y el director ejecutivo deben asociarse y trabajar juntos para garantizar que se cumpla la misión», dijo Schizer.
«Si el director ejecutivo oculta esta información, es un gran problema», dijo.





:max_bytes(150000):strip_icc():format(jpeg)/jake-hall-fight-week-launch-party-london-050726-03e809bb201f4925af04e7abee3a3e9a.jpg?w=100&resize=100,75&ssl=1)



