Un informe sobre responsabilidad civil e inteligencia artificial [Lecturas]

Muchos de los elementos de la inteligencia artificial, como los robots, los coches autónomos, las decisiones adoptadas por algoritmos, etc. pueden causar daños. Determinar cómo se aplican a estos daños las reglas de responsabilidad civil que conoces está dando bastantes quebraderos de cabeza, hasta el punto de que hay quien ha propuesto dotar a los sistemas inteligentes de cierta forma de personalidad jurídica. No es, como verás, la orientación del informe «Liability for artificial intelligence and other emerging digital technologies«, elaborado para la Comisión Europea, que te propongo como lectura recomendada. Su propuesta consiste en jugar con las reglas de responsabilidad que ya conoces, como la responsabilidad objetiva (strict liability, en inglés), el seguro obligatorio, las reglas de la carga de la prueba, etc.

Si quieres quedarte con lo esencial, basta en que leas las dos primeras páginas (Executive summary), donde encontrarás muchos conceptos que te resultarán familiares. Si la curiosidad te pica, puedes seguir con las siguientes 7 páginas (Key findings). Y, si aún te quedan fuerzas, tienes el informe completo, de unas 50 páginas.

¡Ah!, y solo está disponible en inglés, así que aprovecho para recomendarte mi metaguía «Inglés«.

Las «Lecturas» seleccionadas para la Zona cumplen tres condiciones: a) encontrarse en «acceso abierto»; b) ser asequibles, por contenido y extensión, para estudiantes que tienen curiosidad por un asunto; c) aportar datos y/o opiniones que pueden enriquecer al lector. No pretenden ser, por tanto, una referencia bibliográfica, que puede encontrarse en los manuales y tratados o en buscadores como Dialnet o Google Académico. Si te interesa echar un vistazo a todas las lecturas de la Zona, las tienes aquí.


Ayúdame a identificar con tu «like» qué entradas resultan más útiles a los estudiantes ➡