Daniela Perales Bosque

La tecnología se ha vuelto parte de nuestro mundo en casi todos los aspectos de nuestra vida, y ahora aquello que no cuente con tecnología parece ser hasta anticuado. La tecnología se ha vuelto tan importante que, el mismo derecho se ha visto en la necesidad de considerar su relevancia.

Hace poco tomé una conferencia del INDAUTOR, donde los ponentes se vieron en la necesidad de explicar la importancia sobre considerar o no las inteligencias artificiales como aptas para tener derechos o una misma personalidad jurídica. Resulta muy extraño tratar de considerar que pudiera tener derechos u obligaciones una cosa o máquina artificial que fue creada por humanos, que opera con un software y que puede ser manipulada. Estamos hablando de máquinas que a pesar de que hablen o se muevan, sieguen siendo irreales, y considerar su operatividad en el derecho comenzó a tomar importancia cuando automóviles como es el ejemplo de la marca “TESLA”, podían manejar y operar el vehículo sin algún conductor, de modo que pareciera facilitarle al dueño del vehículo en sus necesidades. Sin embargo, en 2016 ocurrió un accidente en donde un hombre manejaba su vehículo marca Tesla en modo piloto automático y el coche se estrelló contra un camión, en donde el conductor perdió la vida. Este hecho fue desconcertante, porque Tesla es una marca de coches de lujo, destacada por su modernidad y tecnología, así que se hicieron una serie de estudios donde la marca trataba de librarse de cualquier responsabilidad; el informe oficial señaló que el sistema le dio demasiada libertad al conductor para desviar su atención a otra cosa que conducir, por lo que el conductor sí tuvo parte de la culpa. Después de este hecho, la propia marca decidió actualizar su sistema piloto automático para apagarse si un conductor no responde después de tres advertencias.

Es interesante analizar quién podría ser responsable de accidentes como estos, donde participa la inteligencia artificial. La máquina no cuenta con personalidad jurídica porque fue creada y si falla es normal porque es artificial, por lo que habrá un porcentaje de error. ¿El creador del coche o del software podría ser responsable? Quizás sí tendrían mayor responsabilidad porque fueron los creadores del sistema, pero volvemos al mismo punto del porcentaje de error, de lo que pueden ser eximidos de culpa. Después de este accidente han surgido otros de este estilo, sobre todo en el manejo “piloto automático” y es esta la razón por la que las inteligencias artificiales comenzaron a provocar problemas en el mundo jurídico, la muerte de una persona resultó un tema muy controversial y se dieron cuenta que aún en este tipo de máquinas tan modernas, existe la probabilidad de fallo.

Otro caso interesante fue la creación del robot “Sophia”, una mujer robot creada por “Hanson Robotics”, una empresa de Hong Kong, que es capaz de hablar e interactuar fácilmente con los seres humanos a razón de la inteligencia artificial, se convirtió en el primer robot con ciudadanía saudí, así que rápidamente hubo discusiones en Arabia Saudita al comparar a Sophia con las mujeres saudíes por tema de derechos y libertades, por lo que se le consideró en una categoría especial de “IA”. El gobierno saudí también tuvo que otorgar a las mujeres pocas, pero algunas libertades que antes no se les daban para solucionar controversias y cuatro años después, ha sido tan grande el desarrollo de este robot que se anunció que en este 2021 se empezaría a comercializar en masa a Sophia, utilizando la pandemia como oportunidad para la industria robótica.

La legislación en México no les otorga a las inteligencias artificiales personalidad jurídica, pero aun así se ha comenzado a considerar la presencia que tienen actualmente. No nos sorprendamos de cómo la tecnología puede rebasarnos con creaciones deslumbrantes como el ejemplo de Sophia. El derecho está siempre atento a las problemáticas y necesidades presentes.