La inteligencia artificial es una realidad desde los años 50 del siglo pasado. Desde entonces ha experimentado una evolución exponencial que ha modificado la manera en la que interactuamos con la tecnología. Aunque el Comité Económico Europeo define la Inteligencia Artificial como “una disciplina tendente a utilizar las tecnologías digitales para crear sistemas capaces de reproducir de forma autónoma las funciones cognitivas humanas, incluida la captación de datos y formas de comprensión y adaptación”, conviene también ir a los considerados como padres de esta tecnología,John McCarthy y Marvin Minsky, que la definieron como “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes” y como “la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si las hicieran las personas”, respectivamente. En definitiva, la inteligencia artificial es la capacidad en un software de imitar la inteligencia y el razonamiento cognitivo humano. Y aquí es donde empiezan los interrogantes.
Como cualquier tecnología disruptiva, la inteligencia artificial entraña riesgos en múltiples áreas (seguridad, control, ética, entre otros). Según las normas vigentes, las consecuencias de la actuación de un robot o de la IA recaen sobre un agente humano, pero no sobre el robot o la IA en sí. “Sin embargo, ¿qué ocurre si, como está previsto en un futuro cercano, la IA aprende conductas por si sola? o ¿qué pasa si la IA toma decisiones de manera automática o auto-aprendida?”, se pregunta David Gallardo, CTO y director de innovación de Syntonize. “Ante estas cuestiones, es evidente que las normas actuales no son suficientes, por lo que la industria debe abrir el debate para que se pueda legislar en consonancia antes de que sea demasiado tarde”.
Algunos académicos consideran que para medir la responsabilidad legal de la IA sería necesario, en primer lugar, diferenciarla y aplicarla solamente a las tecnologías de inteligencia artificial de cuarta generación, es decir, las que son capaces de razonar, autoaprender y actuar de manera totalmente autónoma. De este modo, a los robots equipados con este tipo de IA se les podría otorgar una personalidad digital y considerarles personas electrónicas responsables.
“Ahora mismo partimos de la premisa de que la IA no es más que una herramienta creada por el hombre al servicio del hombre y, por tanto, está en la mano del programador realizar una adecuada labor de determinación de los patrones de actuación y limitarlos a los derechos fundamentales y libertades humanas”, continua Gallardo. Con esta premisa, se puede determinar entonces que los diferentes agentes sobre los que puede recaer la responsabilidad legal de la IA son en la actualidad:
- El fabricante, que sería responsable en caso de detrimento de las cualidades de sus productos y por un comportamiento negligente del producto.
- El programador, que será responsable por los daños causados debidos a defectos en el software, fallos o errores.
- El usuario, que será responsable cuando el producto ofrezca la opción de programación por el usuario final y la cuestión legal o ética sea responsable de la programación final de este.
- El dueño, si realiza un mal mantenimiento del producto o un uso inadecuado del mismo.
En un futuro probable, los robots llegarán a adquirir autoconciencia de su relación con el entorno y tomar decisiones autónomamente. Entonces, deberíamos llegar a plantearnos una reinterpretación de los preceptos del Código Penal. Por ejemplo, cuando el doliente de la acción de un robot recayese sobre una persona. En este caso, no debería permitírsele seguir funcionando: sería necesaria su desactivación o eliminación, por lo que los robots deberían entonces contar con una especie de ‘kill switch’ o botón de la muerte.