Buscando el límite ético del big data



RSS

Anda la Comisión Europea a vueltas para impedir que Facebook acceda a los datos de los usuarios de WhatsApp, una empresa ésta que, no olvidemos, compró por 19.000 millones de dólares pese a que tiene en nómina a poco más de 50 empleados y que todavía no ha dado con la fórmula para poner ingresos en su balance más allá de las aportaciones de su propietario para compensar los gastos.

A veces estas cifras tan abultadas no nos permiten ver realmente la dimensión de las cosas. Por ponerlas en contexto, 19.000 millones de dólares es una cifra similar al PIB de Chipre, Honduras o Bosnia y es similar también al valor bursátil de empresas como Caixabank, Repsol o Endesa y casi el doble que IAG (Iberia + British Airways).

Entonces, ¿qué pensábamos que estaba comprando Facebook cuando decidió pagar 19.000 millones de dólares por Whatsapp? Evidentemente, sus/nuestros datos. Ese ese el valor que Facebook da a la información que puede obtener de nosotros a través de WhatsApp para posteriormente cruzarla con la que ya dispone para poder segmentarnos y categorizarnos mejor.

Este cruce es lo que está pretendiendo impedir la Comisión, al menos en el caso de los ciudadanos europeos, pero no está claro hasta qué punto esto pueda ser lo mismo que ponerle puertas al campo. Para ilustrarlo, veamos un ejemplo de cruce masivo de información en la Administración Pública ya que al quitar la dimensión del lucro las cosas se entienden mejor.


Un ejemplo sencillo: Los bomberos acudiendo a un incendio

Imaginemos un incendio en un edificio. En condiciones normales, los bomberos acudirían al recibir la señal de alarma y durante el camino, el centro de mando intentaría facilitarles la máxima información posible sobre cuál es la ruta más rápida, posibles incidencias en el camino, donde están los hidrantes más cercanos, la estructura del edificio, si hay hospitales o guarderías cerca, fábricas o almacenes de elementos inflamables, … Hasta aquí lo normal.

Toda esa información está muy bien y es necesaria. Pero también podrían acceder en tiempo real a la base de datos del Padrón de habitantes de ese municipio para detectar posibles personas mayores que vivan solas en alguna vivienda de ese edificio o incluso analizar las bases de datos de ayudas sociales o beneficios fiscales para detectar personas con movilidad reducida.

Por ejemplo, podrían lanzar una búsqueda en las bases de datos para detectar personas de ese inmueble que hayan solicitado plaza de aparcamiento para discapacitados, incluso analizando el texto escrito de la solicitud para entender su discapacidad concreta y descartar de forma automática las no relevantes para el caso.

En el extremo, una vez identificadas las personas más vulnerables del edificio podrían lanzar una búsqueda en los repetidores de telefonía de la ciudad para ubicarles geográficamente y corroborar o descartar su necesidad especial de auxilio.

Todo eso lo haría un software de big data y analítica en tiempo real, y lo haría tan pronto se desatase una alerta en un emplazamiento. Permitiría a los bomberos saber que en el 3º B de ese edificio en llamas hay una persona mayor que vive sola o una persona en silla de ruedas o invidente. Sin duda, esas personas lo agradecerían porque puede que de ello dependiese su vida.

Pero, por el contrario, estos mecanismos de acceso podrían considerarse una intolerable intromisión en la intimidad de los ciudadanos ya que habilitarían la discrecionalidad en el acceso a los datos y su análisis cruzado, por muchos controles internos que se pusieran. Por ejemplo, un acceso incontrolado a esa información permitiría a los ‘malos’ saber que pueden robar a ese pobre vecino del 3º B porque su minusvalía le impedirá defenderse.


Terminando

¿Dónde está el límite? Esto es lo que la Comisión Europea trata de analizar con Facebook y Whatsapp antes de permitir el trasvase de información. Tal vez la respuesta venga de la mano del enfoque de Google: garantizar que sean siempre las máquinas y no las personas quienes analizan y tengan acceso a esa información. O tal vez ni tan siquiera eso, porque tarde o temprano se acabará vendiendo esa mega-base de datos a un tercero que tal vez no tenga tantos problemas éticos para su explotación.

Y lógicamente, a una empresa no se le puede presuponer la falta de ánimo de lucro que se explicaba en el ejemplo anterior de los bomberos.

Lo importante es entender que no hay dato menor en el terreno del big data. Hace más de una década que un analista de Carnegie Mellon demostró que podía identificar biunívocamente con nombre y apellidos al 87% de los ciudadanos de Estados Unidos disponiendo únicamente de su género, fecha de nacimiento y código postal, datos que habitualmente consideramos poco intrusivos. Y las consecuencias de ese cruce masivo con la información de la que ya disponen las grandes 'compañías sociales' son aún más impredecibles.

¿Crees que los bomberos deberían poder acceder a toda esa información en tiempo real para poder salvar vidas o crees que la intimidad de las personas es un bien irrenunciable? Y si no es irrenunciable ¿en cuanto valoras tu intimidad? Este es el riesgo del análisis masivo de información relativa a las personas y el dilema ético al que nos estamos enfrentando.

Grettings from Bilbao


www.tonsofit.com


RSS

Los contenidos de Tons of IT están sujetos a licencia Creative Commons Reconocimiento 3.0 salvo donde se indique lo contrario.