Programando la picaresca



RSS

A estas alturas de la película no hay mucho que contar sobre el fraude en el software que controla las emisiones contaminantes de algunos vehículos. Tal vez, lo único que sorprende es que haya ocurrido en Alemania, la cuna del orden y los procedimientos; probablemente no extrañaría tanto si el escándalo hubiera sido provocado por algún otro fabricante con sede más cercana al ecuador.

Pero dejando de lado la vertiente económica y delictiva del asunto, hay otra sobre la que tal vez no se ha profundizado lo suficiente: la tecno-ética.

Un coche no encaja bien en el imaginario colectivo de lo que es un robot, probablemente más identificado con un artilugio al más puro estilo Terminator. Pero sí, el centro de control de un coche y el coche en sí mismo es probablemente el robot más evolucionado jamás construido: Controla la aceleración, la frenada, la tracción, la temperatura, la dirección, detecta impactos, aparca solo,… Si un coche de hoy en día no es un robot (del checo robota que significa trabajo) es difícil saber qué lo es. De hecho, tampoco los dispositivos iRobot para la limpieza del hogar tienen forma de humanoide y nadie discute su condición de robots. Incluso diría que Siri es un robot.

Y cuando pensamos en los robots la mayoría damos por buenas las leyes de Asimov sobre la interacción entre robots y humanos. Es algo que nos permite vivir tranquilos sabiendo que las máquinas jamás se revelarán contra nosotros. Pues bien, los sistemas neurálgicos de estos coches incumplen al menos las dos primeras sin que nadie se asombre.

Las dos primeras leyes de Asimov nos recuerdan que 1ª) un robot no hará daño a un ser humano o, por inacción, no permitirá que un ser humano sufra daño y 2ª) un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª ley.

Parece claro que los sistemas informáticos implantados en los coches han obviado la primera ley permitiendo que los fabricantes se lucraran a costa de mayor contaminación en el Planeta, algo que, aunque no de forma inmediata, es claro que produce daños a los humanos. Pero lo que es aún peor, lo han hecho desobedeciendo las leyes de los humanos, incluso engañándoles cuando detectaban los ciclos de pruebas, incumpliendo de forma flagrante la segunda ley.

Es cierto que no se puede decir que los coches lo hayan hecho con conciencia de haber incumplido las leyes porque estos sistemas y los de cualquier sistema informático actual distan mucho de tener habilidades cognitivas superiores y mucho menos conciencia de sí mismos y de su entorno.

Pero no es menos cierto que es un muy mal comienzo en la industria del automóvil teniendo en cuenta los retos éticos y morales a los que se va a tener que enfrentar en un futuro no demasiado lejano.

El coche sin conductor obligará a moldear el software de su sistema de gestión a imagen y semejanza de los intereses de quien tenga la mayor capacidad de lobby. Pongamos un pequeño ejemplo:

Dos coches circulan a la par por una carretera de dos carriles cuando, tras un cambio de rasante, uno de ellos detecta un obstáculo en su carril. Estas serían las posible opciones en un reducidísimo árbol de decisión (uno de verdad tendría muchísimas más variables a considerar):

   If el obstáculo es un elemento inerte
      If el obstáculo es de pequeñas dimensiones
         Seguir de frente y llevarse el obstáculo por delante
      Else 
         Dado que no es viable cambiar de carril sin causar daños a terceros,
         seguir de frente y chocar con el obstáculo


   Else If el obstáculo es un animal
      If el animal es de una especie poco valorada (una rata por ejemplo)
         Atropellar al animal
      Else If el animal es de una especie protegida
         Cambiar de carril y echar de su carril al otro coche
         a riesgo de causar daños a sus pasajeros


   Else If el obstáculo es una persona
      If el riesgo calculado de muerte para la persona es mayor que 50%
         Cambiar de carril y echar de su carril al otro coche
         a riesgo de causar daños a sus pasajeros

      Else
         Atropellar a la persona y confiar en que no le pase nada grave


Añadamos más variables como que el ordenador de abordo sepa identificar cuantas personas viajan en el coche de al lado, si lleva niños, si lleva personas poderosas, si el obstáculo en la calzada es muy valioso, si la persona en la calzada es importante (obsérvese la cursiva),...  y enseguida veremos que la decisión no será jamás la correcta para todos porque es un dilema moral. Un ecologista podría intentar imponer en el algoritmo una mayor preponderancia de la vida del animal. Una compañía de seguros podría intentar hacer prevalecer la decisión que le genere menor perjuicio económico o incluso evitar el accidente al coche que tenga contratada la 'póliza Gold'.

Y lo más divertido, el software deberá tomar la decisión en 1 milisegundo. ¿Decidirá que vale más la vida del peatón que invade la carretera que la del conductor del coche de al lado? ¿Tiene relevancia en la decisión quien es el peatón? ¿Vale más la vida del animal que la del conductor del coche de al lado sí el animal es nuestra mascota? U otra aún mejor, ¿podría el ordenador del coche decantarse por una u otra opción en función de cual genere menos costes económicos?

Hay muchos intereses en juego, algunos legítimos y otros tal vez espurios. Pero esos son los dilemas morales que le esperan a la tecnología de pasado mañana a medida que las máquinas, los coches por ejemplo, vayan asumiendo el control en ámbitos de decisión reservados hasta ahora a los humanos.

Mal comienzo es diseñar software cuyo fin máximo es engañar al humano que lo posee. Eso hasta ahora se llamaba malware y cuesta creer que respetables empresas puedan entrar en esa categoría.



Grettings from Bilbao


www.tonsofit.com


RSS

Los contenidos de Tons of IT están sujetos a licencia Creative Commons Reconocimiento 3.0 salvo donde se indique lo contrario.