El lunes 21/03 el New York Times publicó una nota titulada «Un atropello y el futuro de los vehículos autónomos»; esto referente al accidente ocurrido el pasado 19/03 en Tempe, Arizona, cuando un Uber operado bajo la modalidad de vehículo autónomo atropelló a una mujer, a pesar de encontrarse tripulado por un conductor humano a menos de 64 kilómetros por hora.

Fuente de la imagen: Autología
En letras del NYT, este sería el «primer caso» de estas condiciones en el país, sin embargo, es prudente recordar el hecho de tránsito ocurrido el pasado 7 de mayo de 2016 en Florida, Estados Unidos, cuando un vehículo Tesla Model S «provocó la muerte de Joshua Brown (dueño del Tesla), al no evitar el complejo giro de un camión que le arrebató la vida a Brown. En ese escenario, a pesar de los diversos intentos e hipótesis jurídicas, resultó evidente el océano legislativo en torno a la responsabilidad de la inteligencia artificial, de los productores/fabricantes/desarrolladores y, en su caso, de los operadores de vehículos autónomos. A saber de Elon Musk (Fundador Tesla) y su equipo jurídico, esto correspondió a un «dilema de moral» al que fue sometido el vehículo, además de la poca supervisión que Brown efectuó sobre el manejo del Model S.
A saber de expertos en la materia como Yasushi Ogasawara, de la Universidad de Meiji (Japón), no se puede atribuir responsabilidad a la IA cómo si ésta se tratare de un ser humano, a pesar de que paradójicamente se diseña para tratar de emular a cada uno de ellos. Por su lado, Bryan Walker Smith, de la Universidad de Leyes de Stanford, propone diversos niveles de repsonsabilidad civil y penal, en atención al grado de automatización de los vehículos, en cuyo caso, únicamente en el escenario en que los automóviles fueran enteramente autónomos e independientes, se podría comenzar a analizar el «apocalipsis de la robótica homicida»; empero, hasta ahora, la industria automotriz sólo ha logrado crear vehículos «autónomos» que requieren la vigilancia de un programador y, en su caso, de un operador humano, lo cuál podría implicar división de responsabilidad (operador-desarrollador-fabricante) en el escenario de que estos vehículos acabaran con la vida de su propio conductor para salvar a varios inocentes peatones. Sin embargo, el debate va más allá del aspecto jurídico, pues tal como sostiene Azim Sharif en su obra «The social dilema of autonomous vehicles»: ¿quién sería capaz de comprar un auto que podría matarnos? Finalmente, la IA está programada para lograr el menor de los daños posibles, aunque dicha conducta pudiere implicar la muerte de su operador; esto más allá del instinto, sino en el marco de la razón y «lógica».
El accidente ocurrido el pasado 19 de marzo provocó que Uber retirara todas las unidades autónomas que se encontraban en circulación y por ahora, reabrió el debate político-jurídico en torno a las leyes americanas para configurar responsabilidades civiles-penales y morales en el uso de la Inteligencia Artificial, en la industria automotriz. Este diálogo podría permitir crear verdaderos parámetros de legalidad y regulación en la creación de IA, suficientemente autónoma, para eximir responsabilidades humanas y estudiar el futuro jurídico de la IA como objeto de derecho o bien, quizá -algún lejano día-, sujeto de derecho y en ese romántico escenario, sin duda aparecerá sobre el ciberespacio la tendencia #EvilArtificialIntelligence.