Algoritmos de redes sociales considerados peligrosos, pero aún no legales


Yakarta, VIVA – Se invita a los académicos y profesionales del derecho a atreverse a abandonar los grilletes del dogmatismo jurídico clásico para responder a los avances algorítmicos.

Profesor propone ley de quiebras que prioriza mantener la estabilidad económica nacional

El presidente general de DPN PERADI PROFESSIONAL, Harris Arthur Hedar, enfatizó que es hora de que los algoritmos dejen de ser tratados como entidades que parecen escapar de la ley con el pretexto de la neutralidad tecnológica.

Harris expresó esta preocupación en el contexto de cambios importantes en la forma en que los humanos consumen información. Si antes el proceso de curación lo realizaban editores y editoriales, ahora esta función la desempeña un sistema algorítmico.

16 estudiantes de derecho del seguro de desempleo cometen acoso sexual y la policía interviene para hacerlo

«La tecnología nunca es neutral. Lleva misiones, diseños y consecuencias», dijo Harris el sábado 18 de abril de 2026.

Según él, hasta ahora el algoritmo parecía estar sujeto a impunidad legal. Esto plantea serios desafíos, que van desde cuestiones de causalidad legal, estatus de sujeto legal, hasta jurisdicción transfronteriza.

Para apoyar el clima de inversión, se anima a los notarios indonesios a priorizar la profesionalidad y la integridad

«En primer lugar, la causalidad legal, demostrar que un algoritmo causa directamente violencia o suicidio es difícil. Las empresas tecnológicas siempre señalarán el ‘libre albedrío’ de la víctima o el perpetrador como una causa intermedia», dijo.

“Incluso desde una perspectiva de psicología y neurociencia, los algoritmos diseñados utilizando técnicas de refuerzo conductual han eliminado sistemáticamente la capacidad del usuario de racionalizar progresivamente”, afirmó.

Además, destacó que los algoritmos no tienen la condición de sujetos jurídicos, ni de personas jurídicas, ni de seres humanos. Esto dificulta que las víctimas busquen justicia a través de canales civiles.

«En el ámbito de las demandas civiles, las demandas colectivas requieren que una de las partes sea demandada. Sin una construcción legal que considere los algoritmos como ‘productos’ defectuosos en una definición más amplia, las víctimas sólo pueden lamentar sus pérdidas sin justicia restitutiva», dijo.

Otro problema proviene del aspecto jurisdiccional. Muchas empresas de desarrollo de algoritmos están ubicadas en el extranjero, lo que dificulta el acceso a ellas según la legislación nacional, especialmente en los países en desarrollo.

“Las plataformas globales a menudo están fuera del alcance de las leyes nacionales de los países en desarrollo, por lo que incluso si existe la intención de demandar, hacer cumplir la decisión se convierte en una utopía”, afirmó.

También destacó las diferencias fundamentales entre los algoritmos y el objeto de una demanda civil convencional. Lo comparó con productos como cigarrillos, cosméticos o alimentos, de los que debe responsabilizarse a una entidad clara.

Página siguiente

«Si los cigarrillos causan cáncer, demandamos a las tabacaleras. Si los cosméticos causan daños a la piel, demandamos a los fabricantes de cosméticos. Si los alimentos ultraprocesados ​​causan enfermedades metabólicas, demandamos a los fabricantes de alimentos. ¡Hay una entidad legal que es una representación física del producto! Sin embargo, un algoritmo es diferente. No es una cosa. No es un producto en el sentido clásico. Es un código, un sistema o caja negra que continúa desarrollándose dinámicamente», dijo.





Fuente