La obsesión por el control no es algo nuevo en occidente. Tampoco lo es la idea de que ciertas decisiones, por éticas o por racionales, deben ser tomadas por personas íntegras y bien formadas. Lo que sí es más reciente, es la posibilidad de que esas decisiones las tomen los ordenadores. Paradójicamente, resulta que la razón y las emociones, enemistadas durante siglos, se unen hoy en contra de las máquinas. Ciertas decisiones, vociferan los adalides de la razón y de la ética, sólo pueden ser tomadas por personas (bien) pensantes. Incluso cuando las decisiones tomadas por personas puedan causar más muertes que las tomadas por ordenadores. Veamos dos ejemplos.
Primer acto. La justicia.
Imaginemos que se utilizara un sistema de análisis basado en big data para determinar si un preso por asesinato o violación puede obtener la libertad condicional. Imaginemos que el sistema tiene acceso al «historial ampliado» del recluso: comportamiento, visitas (duración y frecuencia), llamadas telefónicas (destino, duración y frecuencia), lecturas, relaciones con otros presos, medicaciones, dieta, vocabulario que utiliza, etc., etc., etc. Imaginemos que el sistema tiene, además, acceso a los historiales de todos los casos de asesinos y violadores y sus índices de reincidencias. Imaginemos ahora que de los presos puestos en libertad condicional por el sistema basado en big data la reincidencia es de un 25%. Imaginemos ahora que el índice de reincidencia en el caso de reclusos puestos en libertad por comités de personas es del 40%. ¿Qué es lo que deberíamos hacer? ¿Seguir sosteniendo que se trata de una decisión humana y aceptar el daño colateral que ello supone? ¿O deberíamos ser pragmáticos, aceptar nuestras limitaciones y salvar vidas y evitar sufrimiento? Claramente ninguno de los dos sistemas es infalible; pero si hay uno que es mejor que el otro: ¿Qué nos impide aceptarlo? ¿Nos da miedo que una máquina tome decisiones?
Segundo acto. La responsabilidad.
El coche autónomo ya es una realidad. Pero de momento, se trata de una realidad tecnológica que se enfrenta a algunos problemas éticos y legales. Por ejemplo, ante un accidente inevitable, el coche autónomo tiene que decidir si prioriza la vida de los ocupantes del vehículo o la de los de fuera. ¿Quién toma esta decisión? ¿El fabricante, el propietario, el azar? No me cabe duda de que superado cierto umbral, el coche autónomo conducirá (en promedio) mucho mejor que (el promedio de) los humanos. No sólo aprenderá de cada error propio o situación inesperada, sino que esa información puede ser compartida y cada coche podría aprender de los errores de todos los demás. Por supuesto que el sistema no será perfecto; habrá accidentes e incluso muertos. Y seguramente habrá manifestaciones anti-coches-autónomos el día que muera la primera persona en un accidente. ¿Seguiremos igual de ofendidos con los coches autónomos cuando las muertes por accidentes de tráfico sean 10 o 100 veces menos que ahora? Llegará también el día en que esté prohibido que conduzcan las personas. Del mismo modo que han desaparecido los «ascensoristas», y hoy los ascensores son mucho más seguros que entonces, también desaparecerán los conductores de coches. Pero volvamos a la pregunta del comienzo: ¿Quién toma la decisión de quién vive y quién muere? ¿Firmaríais un documento asumiendo esta decisión? Y sin embargo lo hacemos cada vez que miramos el móvil mientras conducimos o si bebemos alcohol o si estamos demasiado cansados o si vamos muy rápido. Ponemos todo el tiempo en riesgo la vida de los demás (y la propia) sólo que en ningún momento firmamos un papel asumiendo esa responsabilidad. Lo paradójico es que incluso sabiendo que la probabilidad de un accidente con un coche-autónomo es muchísimo menor que si condujésemos nosotros, nos temblarían las piernas al firmar tal documento. Seguimos creyendo que tener el control es mucho más seguro y que, en cualquier situación, tomamos mejores decisiones que los ordenadores. Menudos pardillos que somos.
0 comments on “La obsesión por el control”