¿Debería Internet aprender a olvidar?



RSS

Sinapsis cerebral
Por un momento, comparemos la capacidad de Internet con la de un cerebro humano. Y aunque cualquier neurólogo se echaría las manos a la cabeza, equiparemos neurona con página web (no dominio) y la sinapsis neuronal con un link.

El cerebro humano dispone aproximadamente de cien mil millones de neuronas y cada una de ellas está comunicada con otras diez mil creando redes o dominios de conocimiento. Respecto a Internet, a finales de 2008 Google decía en su blog que tenía en sus índices más de un billón (europeo) de páginas, es decir, diez veces más páginas que el total de neuronas de un cerebro humano. Probablemente, a finales de 2010 habrá que multiplicar esta cifra por 2 o por 3 por lo que, a buen seguro, estaremos cerca de los 2,5 billones de páginas o contenidos diferentes.

Curva de crecimiento de Internet
Pero Internet no tiene únicamente un crecimiento explosivo en cuanto a contenidos por dominio sino que el número de dominios crece igualmente de forma exponencial. La curva que nos facilita Netcraft muestra como la pendiente de crecimiento se incrementa en cada periodo llegando hasta los 250 millones de dominios registrados a finales de 2010.

Y qué decir del crecimiento en volumen de almacenamiento en Internet. Más allá del típico chiste de "méteme Internet en este disquete", lo cierto es que hay quien se ha tomado la molestia de medir lo que ocupa el volumen de información que está online en Internet. Un reciente y altamente recomendable estudio de IDC sobre almacenamiento estima que actualmente hay un volumen de 0,9 Zetabytes y se llegará a un Zetabyte aproximadamente coincidiendo con el final de 2010 (un Zetabyte son mil Exabytes, o un millón de Petabytes, o mil millones de Terabytes o un billón de Gigabytes, o sea, mucha, mucha información).

Estimación del volumen del almacenamiento de Internet en 2020
Y las previsiones para 2020 son aún más radicales porque se estima que en diez años el volumen de almacenamiento necesario será de 35 Zetabytes, si bien es cierto que de esos 35 Zetabytes se cree que solo el 25% será contenido único (es el ratio actual). El otro 75% son copias y copias de copias de contenidos ya existentes.

Aunque se prevé un gap entre el espacio disponible y el necesario, este crecimiento no será un problema en sí mismo. Los costes del almacenamiento por Gigabyte bajarán al mismo ritmo al que crezcan los incrementos de consumo, como siempre lo han hecho. Además, se potenciarán tecnologías como la deduplicación o la virtualización del almacenamiento. En definitiva, que es previsible que la tecnología de almacenamiento no sea un stopper para el desarrollo de Internet.


Volvamos al cerebro

El cerebro humano se las apaña bastante bien con apenas cien mil millones de neuronas. Y dado que la capacidad de almacenamiento está limitada el cerebro ha aprendido a olvidar. Por eso, se distinguen al menos tres tipos de sucesos en la memoria:

  • La memoria a corto plazo con experiencias que se recuerdan momentáneamente pero se olvidarán con el paso del tiempo. Por ejemplo, los números de la lotería primitiva de esta semana. 
  • La experiencias que han llegado a la memoria a largo plazo pero no se recuerda que se tienen. Por ejemplo, no se puede recordar la cara de alguien que hace 20 años que no se ve pero si se vuelve a estar junto a él se le identifica sin problemas (luego el dato estaba ahí).
  • Las experiencias que están en la memoria a largo plazo y se recordarán de por vida. Son aquellas que han moldeado la plasticidad el cerebro, por ejemplo, los mismos números de la lotería primitiva en el supuesto de que nos haya tocado.

Olvidar no es un proceso simple, tampoco lo es para el cerebro. De hecho, no se puede olvidar algo por mucho que se intente, porque cuanto más se intenta más se focaliza la atención en ello y, por tanto, más probabilidad hay de que termine estando en la memoria a largo plazo. Primera pregunta: ¿es aplicable esto a Internet? ¿Puede Internet olvidar contenidos cuando sepa que ya no son relevantes?


Consideraciones legales

La mayor parte de los países desarrollados disponen de legislación específica para proteger la intimidad de las personas frente a la capacidad tecnológica de las empresas para crear bases de datos de todo tipo y condición. En muchos casos estas leyes regulan el almacenamiento en base a criterios objetivos como el tipo de información (edad, capacidad económica, nivel de estudios, sexo, religión, ideología,...) pero siempre existen algunos un tanto subjetivos como la "proporcionalidad". Es decir, que el almacenamiento de cierta información debe ser proporcional al uso que se da de ella. En ese sentido, no es proporcional, por ejemplo, que nuestro operador de telefonía mantenga en sus bases de datos nuestra ideología política o religiosa.
Otro factor de proporcionalidad es el tiempo en el que el dato está vigente y, por tanto, las empresas deben proceder a su cancelación cuando ya no lo está.

Pensemos ahora en alguien que comete un delito o, en general, ocurre algo en su vida que le desagrada personalmente. Si tiene 'suerte' su acción será publicada en medios de comunicación tradicionales y en los nuevos de Internet. Pasados, por ejemplo, cinco o diez años la noticia seguirá ahí, seguirá online para que cualquiera pueda saber lo que desee sobre su pasado. ¿Es lícito mantener online esa información diez años después?

La Unión Europea está ya iniciando la regulación de estas situaciones y es previsible que pronto exista una directiva sobre el derecho al olvido en las redes sociales. Es decir, el ciudadano tendrá derecho a que no exista información sobre él en las redes sociales.

Facebook te ve
Esto tiene unas implicaciones legales muy fuertes y unas implicaciones técnicas desbordantes. Países como Alemania ya han regulado legalmente el que los profesionales de las empresas de selección de personal no puedan acudir a las redes sociales para recabar información sobre los candidatos. Es esta una ley muy ambigua en su redacción y brutalmente compleja en su puesta en práctica. Porque, ¿cómo impedir que alguien busque en Facebook información sobre el candidato?

En el extremo de la legalidad, ¿deberían los medios de comunicación dejar de mantener online las noticias en las que se citan personas una vez haya transcurrido un tiempo estipulado? Y ya puestos, ¿afecta solo a medios de comunicación o es aplicable a Internet en su conjunto? De acuerdo, hay derechos básicos como el derecho a estar informado y los derechos de prensa en general pero, ¿aporta algo conocer que nuestro vecino realizó una determinada acción -de la que tal vez no se siente orgulloso- hace quince años o es puro voyerismo?

Hace un par de meses el presidente ejecutivo de Google decía que en el futuro los jóvenes cambiarán de nombre para escapar de su pasado. Fue muy criticado por ello pero qué duda cabe que decía algo con mucha lógica. Lo que no decía es que su dardo iba dirigido a Facebook, uno de sus principales enemigos en la lucha por el liderazgo de Internet, y que su buscador, Google, es uno de los que más y mejor participa en que Internet no sepa olvidar.

Pregunta número dos: ¿debe tener Internet procedimientos de privacidad de forma masiva y es viable técnicamente?

Gente feliz
Dadas las limitaciones, el cerebro ha aprendido a recordar únicamente lo que aporta valor para el futuro descartando el resto (porque el saber sí ocupa lugar). Igualmente, descarta con mayor celeridad los sucesos no agradables de cara a vivir más felices en el futuro. Está demostrado que hay mayor liberación hormonal para fomentar la memoria a largo plazo ante acontecimientos y vivencias agradables que frente a aquellas que no encajan en nuestra escala de valores. Pasadas unas semanas, recordamos con mayor profusión de detalles la cara de un niño feliz y sonriente que una foto de un animal o persona herida.

Pregunta número tres: ¿estamos creando infelicidad a escala planetaria manteniendo online y de por vida los hechos desagradables (aunque también los agradables) de nuestras vidas?

Dificil tarea tiene el legislador para poner en orden todo esto...


www.tonsofit.com


RSS

El software ¿y la democracia?



RSS

Hace unas semanas, en Microsoft: el mayor impulsor del software libre, se analizaban los orígenes del software libre, su vertiginoso crecimiento y como el vacío creado en el mercado fue aprovechado por un nuevo agente, la comunidad, para crear un retador creíble frente al establishment.

Después, en Y el software libre se hizo negocio... se analizó la situación actual del software libre, un mercado formado casi en exclusiva por empresas que se abrazan a este tipo de software por diferentes razones, todas ellas unidas por un denominador común: Business is business.

Hoy toca hablar sobre la miopía de algunas administraciones públicas a la hora de lanzar proyectos basados en software libre, bien sea para crear un sistema operativo con el que parecen querer competir con los grandes fabricantes del software, bien para reservar partidas económicas para consumo exclusivo en software libre o bien para lanzar oficinas de apoyo o impulso a este tipo de software. Intentaremos demostrar como lejos de ayudar, hacen un flaco favor a su impulso real en la sociedad, porque no hay nada peor para cualquier producto o servicio que hacerle crecer de forma artificial sin enfrentarle a la competencia de los Mercados.

El doble papel de la Administración frente al software libre

El papel de las administraciones públicas frente al software libre debe medirse desde dos puntos de vista completamente diferenciados. En primer lugar, el obvio, el de su uso a nivel interno. Debe analizarse su comportamiento ante él en términos de coste total de propiedad y aportación de valor tal y como lo haría una corporación privada. En segundo lugar debe analizarse su postura (apoyo, rechazo o no interferencia) desde una perspectiva institucional.

Vayamos con el primer punto que es el más simple. Cabe pensar que no hay razón aparente para que las administraciones públicas tengan un comportamiento frente al software libre diferente al que pudiese tener una compañía privada. En ese sentido, deben medir este tipo de industria de acuerdo a los mismos parámetros, valorando el software en función de su coste total y aportación de valor y no de su procedencia, si bien es posible que añadan algún parámetro adicional.

Un ejemplo de parámetro adicional es el apoyo a las lenguas minoritarias. Qué duda cabe que una compañía de TI no tendrá demasiado interés en traducir sus productos a lenguas minoritarias cuando el esfuerzo para hacerlo resulte superior a la rentabilidad esperada. Eso parece lógico, siempre y cuando el interés y la rentabilidad atiendan a parámetros puramente económicos. Pero ¿qué ocurre cuando la comunidad de software libre dice que sí está dispuesta a traducir a esos idiomas sus productos equivalentes?

Cuando eso ocurre y la Administración en cuestión amenaza con cambiar a productos de software libre sucede que, súbitamente, los grandes fabricantes de TI muestran un enorme interés por las lenguas minoritarias. La competencia hace que los mercados evolucionen.

Volviendo de nuevo a la cuestión esencial, las Administraciones Públicas, cuando se trata de su uso a nivel interno, deberían tratar al software libre como a un competidor más, midiendo las ventajas y desventajas de su uso tal y como lo haría la empresa privada. En palabras de la Ley de contratos del sector público, dando prioridad a la opción más económicamente ventajosa que, tal y como indica la propia Ley, no es necesariamente la más barata sino la que tiene una mejor relación calidad-precio.

Posición institucional frente al software libre

Parece obvio que no hay razón para rechazar institucionalmente al software libre. Resultaría extraño que una administración pública rechazase una nueva forma de industria. Por tanto, la cuestión se centra en si debe impulsarlo o debe ser neutral. Para ello, se analizarán las potenciales ventajas desde el punto de vista de creación de tejido industrial y aumento de las inversiones locales, la balanza comercial con el exterior y la percepción de mayor democracia y libertades.

La mayor parte de las grandes compañías de software plantean modelos según los cuales ellas ponen el software y el conocimiento del producto a alto nivel dejando a los integradores locales el trabajo de adaptación, implantación y mantenimiento. Este es el modelo de compañías como, por ejemplo, IBM, HP, SAP, Oracle o Microsoft que rara vez compiten en proyectos con los integradores locales. Con ello consiguen centrarse en lo esencial –su producto- cuidando y protegiendo al mismo tiempo el negocio de los integradores que les hacen la labor comercial frente a sus potenciales clientes. Se consigue así una simbiosis entre fabricante e integrador que parece ser de interés para ambos.

En el caso del software libre a nivel empresarial el modelo es exactamente el mismo e incluso aún más potenciado. Por tanto, desde el punto de vista de aumento del tejido industrial e inversiones no parece haber grandes diferencias respecto a cuál de los dos modelos es mejor. Ambos trabajan con integradores que crean empleo y tributan localmente. Lo sé, lo sé, las licencias no tributan localmente pero seamos pacientes que ahora vamos con ello.

En cuanto a las licencias cabe analizar la balanza de pagos frente a los países donde residen las compañías de software. Es obvio que en disposición de escoger cualquiera elegiría no tener que hacer frente a pagos exteriores dado que esto mejoraría la balanza comercial con esos países que, en el caso de la industria del software, son principalmente EEUU y algún país europeo –Alemania y Reino Unido- a una enorme distancia.

La historia está repleta de casos en los que un bloqueo fronterizo resulta de interés en el corto plazo pero realmente nefasto en el medio y largo. Potenciar el software libre por el mero hecho de no empeorar la balanza de pagos (asumamos en este supuesto que el software comercial es de mayor calidad) provocaría inevitablemente un corralito tecnológico (en referencia al corralito financiero argentino) en la medida en que las empresas locales tendrían acceso a peor tecnología que las exteriores.
Esta forma de actuación, en una economía globalizada, provocaría una espiral de empeoramiento tecnológico que mermaría la productividad global de la zona de influencia de la administración pública. Sería una muy curiosa forma de generar tejido industrial la de esa Administración, porque desarrollo tecnológico y productividad están absolutamente relacionados. Si se dispone de peor tecnología se están sentando las bases para una peor productividad, ergo peor competitividad con las empresas extranjeras, ergo se va directo al abismo.

Pero, sin ser poco lo anterior, aún hay más. Primar un determinado producto o servicio en función del lugar de su producción y no en función de su calidad es una forma muy sutil de control arancelario. En ese sentido, dejando de lado el hecho de que podría no estar conforme a las normas internacionales sobre libre comercio, ni a la Directiva que regula la libre circulación de bienes y servicios en la UE, ni a la Ley que regula la contratación en el sector público (LCSP) y no valorando tampoco el hipotético empeoramiento tecnológico indicando anteriormente, la historia demuestra que la política de no importar es también una política de no exportar. Uno de los teoremas más importantes de la Teoría del Comercio (Abba Lerner, 1936) demostró que el gravamen sobre las importaciones es exactamente equivalente al gravamen sobre las exportaciones. En ese sentido, la decisión de primar un determinado software en función de su producción interna no beneficia en modo alguno al conjunto del PIB visto de modo global. Nuevamente, curiosa forma de generar riqueza la de esa Administración.

Finalmente, se llega a la cuestión por la que, desgraciadamente, con mayor frecuencia aparece el software libre en los medios de comunicación: líderes políticos esgrimiendo el aumento de la democracia tecnológica asociado al software libre. A modo de ejemplo se incluye este link sobre software sostenible y democrático (ahí es nada) como muestra de despropósito mediático. Se cita un enlace pero se cuentan por toneladas en Internet; propongo la búsqueda "software democracia" si se tiene tiempo libre para leer absolutos sinsentidos.

La cuestión de fondo es dilucidar si es lícito usar los derechos de copyright como medio para garantizar el negocio. Si en lugar de software se hablase de terrenos resultaría escandaloso negar el derecho a la propiedad privada. Bien es cierto que hay una diferencia fundamental entre un terreno y el software: si alguien cede, vende o regala un terreno deja de tenerlo. Sin embargo, si alguien cede, vende o regala un software ambos lo tienen. Maximizando este razonamiento de que lo intangible no puede tener derechos de propiedad han proliferado líderes políticos y sociales que abanderan el software libre como una nueva forma de democracia.

En un elevado número de ocasiones –aunque por supuesto no siempre es cierto- estos líderes trabajan en regiones sin pasado tecnológico que habitualmente corresponden a zonas no precisamente en la cúspide de la renta per cápita. Y hay varias explicaciones para que esto sea así. La primera es que todos esos lugares no parten de una potente infraestructura de TI previa y por tanto los costes de arrastre en el caso de una migración (afectan y mucho al TCO) son prácticamente inexistentes. La segunda es que no disponen de músculo financiero para abordar fuertes inversiones en TI y ven en el software libre una forma de iniciar el trayecto. Y la tercera, y preocupante, es que intentan buscar réditos mediáticos asociando el software libre a un aumento de las libertades.

Pongamos un ejemplo: la Junta de Extremadura. Su decidida apuesta por las tecnologías de software libre, vendidas políticamente a bombo y platillo como una nueva forma de entender la sociedad en la que el ciudadano tendría mayores cotas de libertad y democracia, no se han visto adecuadamente correspondidas a tenor de las cifras ofrecidas por varios organismos del Estado. En concreto, se encuentra a la cola de indicadores como el número de patentes, empresas y personas ocupadas en sectores de alta tecnología, número de doctorados o inversión en I+D.

Fuente: Oficina Española de Patentes y Marcas (OEPM). Estadísticas de Propiedad Industrial.

Fuente. INE. Ocupados en sectores de alta tecnología por Comunidades Autónomas y sectores

Fuente: INE. Principales indicadores de I+D en los sectores de alta tecnología por Comunidades Autónomas, tipo de indicador y total / %

Es decir, la decisión de fomentar el software libre no se acompañó de un plan real para potenciar la tecnología, lo que, en la práctica deja el discurso inicial en algo bastante cercano al simple juego político.

Como añadido, resulta cuando menos curioso que el tejido industrial de Extremadura no haya seguido la línea emprendida por sus dirigentes a tenor de los datos del INE, donde se muestra que las empresas Extremeñas, en clara contraposición a sus líderes políticos, no son demasiado proclives al uso del Linux. En esta comparativa Extremadura es la Comunidad Autónoma con menor presencia de Linux en las empresas y es tan solo superada en orden descendente por Castilla-La Mancha.

Fuente: INE. Variables de uso de TIC (a enero de 2008) por comunidad autónoma

¿Cabría entonces preguntarse si los empresarios extremeños no han sabido ver ni entender las enormes ventajas asociadas al uso de Linux tal y como fueron anunciadas por sus dirigentes?

Tras el análisis de estos indicadores cuesta pensar que el software libre traerá más libertad y democracia a los ciudadanos de Extremadura tal y como aventuraban algunos de sus líderes políticos hace tan solo unos años.

Por el contrario, otras administraciones optarán por soluciones de software comercial y no por ello se le deberá dejar de exigir el mismo respeto a los estándares. Independientemente de la tecnología con la que esté desarrollada la solución, el usuario, en este caso el ciudadano, deberá tener la libertad para acceder a los sistemas de la e-Administración con las herramientas –Open Source o no- que él libremente decida. Es decir, independientemente de que la solución esté basada en tecnología de IBM, Microsoft, SAP, Oracle o de cualquier otro fabricante, el usuario deberá ser libre para decidir si su conexión se realiza con Internet Explorer, Firefox, Chrome o lo que él soberanamente decida.

Ambas alternativas, la de optar por una plataforma de software libre como la de optar por una plataforma liderada por una empresa tradicional, tienen la misma validez siempre que ambas hayan sido tomadas en base a argumentos técnicos y económicos y no a supuestos ideológicos.

Parece claro, por tanto, que las Administraciones Públicas deben tratar de ser neutrales en este mercado, sin favorecer ni perjudicar al software comercial ni al software libre que, en definitiva, no ha de olvidarse, es una forma diferente de industria -soportada por empresas- del software.

Conclusiones

Para su despegue definitivo es preciso que las decisiones respecto a la implantación del software libre se separen de forma inequívoca de cualquier razonamiento que no tenga su fundamento en la excelencia técnica, en la eficiencia y en el alineamiento estratégico con las empresas. Y para ello es preciso desmarcarse de ideologías que no hacen sino sembrar dudas en un mercado –el de la informática corporativa- poco dado a aventuras frente a tecnologías probadas y maduras salvo que las ventajas para el negocio sean incuestionables.

El software libre es un negocio apoyado por una nueva forma de industria que debe ser medido de acuerdo a los parámetros habituales de rentabilidad. Eliminar esa ilógica relación entre ideologías –cualesquiera que sean- y software permitirá eliminar esa aureola underground que aún hoy le rodea. Esto, sin duda, hará que muchos directores de sistemas valoren el software libre de calidad, que lo hay y mucho, por lo que realmente es importante: su calidad. Y el software libre que no sea de calidad –que también lo hay- simplemente desaparecerá. Exactamente igual que lo que ocurre con el software comercial.

La Administración debe garantizar la libre decisión del ciudadano a la hora de elegir software libre o comercial. En ese sentido, los sistemas de la próxima e-Administración deben ser totalmente compatibles con, por ejemplo, los navegadores Firefox, Internet Explorer, Chrome o cualquier otro que irrumpa en escena y tenga un porcentaje de mercado significativo. Igualmente, la documentación debe ser intercambiada en formatos de herramientas ofimáticas soportadas por estándares de mercado cuando sean de aplicación.

Sin embargo, este principio no es de aplicación cuando de lo que se trata es de definir la tecnología con la que dichos sistemas de e-Administración deben ser construidos. En ese caso, cada Administración, en función de sus necesidades tecnológicas y de las herramientas que el mercado en sentido amplio ponga a su disposición, deberá seleccionar la solución que mejor se adapta a sus planteamientos. Y la elección no debería estar basada en si el software es libre o no sino en qué software es el más adecuado técnica y económicamente en cada caso. Por ello se debe dar a, por ejemplo, LinuxFirefox, Chrome, OpenOffice o MySQL el mismo trato que se dispense a AIX, HP-UX, zOS, Windows, Internet Explorer, Office, Oracle o DB2.

Sería deseable que el software libre dejase de ser utilizado como sinónimo de Administración más abierta, más accesible o más democrática dado que relacionar ambos conceptos tiene bastante poco rigor. La presencia o ausencia de ésta -una Administración y una sociedad abiertas, accesibles y democráticas- poco o nada tiene que ver con la presencia o ausencia de un tipo de software en concreto. La tecnología, buena o mala, difícilmente crea mayores cotas de libertad o democracia. Es la utilización de esa tecnología por parte de las personas la que hace aumentar o disminuir los niveles de bienestar social; y mezclar ética con tecnología es un cóctel complejo de gestionar. Por tanto, no parece apropiado continuar con el discurso respecto a si es más ético utilizar software libre o no libre o si la Administración debería primar a uno u otro.

Re-conclusiones

En este post, más incluso que en anteriores, he intentando ser absolutamente respetuoso con todas las ideas. No obstante, estoy convencido de que habrá quien lo interprete como un ataque al software libre. A todos ellos les pediría que vuelvan a leerlo con un poco más de atención y en su caso repasen dos lecturas previas en Microsoft: el mayor impulsor del software libre y Y el software libre se hizo negocio...
Si después de eso siguen considerando que es un ataque al software libre les pido disculpas porque no era esa mi intención y de ser así no he conseguido expresarme con la suficiente claridad.

La idea final es que potenciar el software libre de forma artificial por razones políticas es un curiosa forma de hacerle daño porque tan pronto como el interés político y su foco mediático desaparezcan (y tarde o temprano lo harán) entrará en caída libre. Los dirigentes políticos deberían potenciar siempre la mejor tecnología que esté al alcance (si es libre perfecto y si no lo es también perfecto) porque será esa la forma de aumentar la productividad y con ello la riqueza y bienestar social de su área de influencia. Es decir, las decisiones técnicas deben estar basadas en los mismos criterios que siempre han sido de relevancia: los criterios técnicos. La cita es, nuevamente, de nuestro buen amigo Perogrullo.

RSS

El mundo vuelve a ser analógico



RSS

Los profesionales de TI vemos el mundo de forma diferente, hay que admitirlo. Esa rareza nos la han grabado a fuego durante años de estudio en los que una de las ideas fundamentales era la discretización de la realidad. La idea mágica era 'el mundo es demasiado complejo para ser metido en un ordenador, es preciso reducirlo a variables simples y discretas'.

Pensemos en el teclado de un ordenador y veremos que no es más que una forma bastante burda de convertir a variables discretas (102 teclas, más o menos) la variable continua que significa la escritura. Como no éramos capaces de reconocer la escritura manuscrita nos pusimos manos a la obra para convencer al mundo de que lo ideal no era eso (que es lo natural, lo innato) sino escribir con esas 102 teclas. Y lo hemos logrado porque son ya pocos los que se cuestionan por qué no pueden escribir a mano y que el ordenador se las ingenie para interpretarlo. Y del mismo modo, hemos repudiado la visión o la audición como métodos de entrada de los ordenadores, simplemente porque eran demasiado complejos.

Es más, a esos pocos usuarios de la resistencia civil que se han negado a aceptar nuestras premisas y siguen escribiendo de su puño y letra o dictando con complejos gadgets que leen e interpretan su escritura o su voz  les consideramos usuarios 'raros'. Generan mucho trabajo de soporte por la simple razón de que no somos capaces de hacer las cosas como ellos quieren que, por otra parte, es lo natural.

Afortunadamente la ley de Moore, cierta desde su exposición en 1965, es implacable (Intel ha confirmado que el vaticinio de su cofundador Gordon Moore durará al menos hasta 2018). Con ello hemos llegado ya a una situación en la que podemos discretizar variables con un nivel de realismo muy cercano a lo que de verdad ocurre en la naturaleza. Es decir, el área que describe la versión discreta de la curva (la que generan los ordenadores) es ya muy similar a su área real.

A día de hoy, hay potencia de cálculo más que suficiente para disponer de bolígrafos con cámara de vídeo integrada que permiten grabar todo lo que se escribe para posteriormente, mediante un OCR, convertirlo en texto.

Tenemos también tecnología que permite convertir una señal de audio en texto identificando la voz y descartando los ruidos añadidos. Esto no es nada nuevo dado que lo tenemos accesible de serie en el sistema operativo desde hace varios años para utilizarlo como herramienta de dictado en ofimática o para dar órdenes al propio sistema operativo.

Del mismo modo, cualquier PC doméstico actual dispone de potencia de cálculo para realizar un procesamiento de imágenes en tiempo real suficiente para identificar caras, leer matrículas o identificar y seguir objetos en movimiento. Es realmente asombroso lo que se puede hacer con un software de identificación facial y una webcam de 15 euros o un software para la lectura de matrículas de vehículos en movimiento.

Incluso en la web están disponibles mecanismos de identificación facial que en menos de 5 segundos ponen nombre a cualquier rostro. Pruebe a enviar la foto de algún famoso a myheritage.es o incluso enviar una foto propia para que le sugiera a quien se parece. Cuidado, porque esto último puede tener resultados no previstos que afecten a la autoestima ;-).

Llega algo nuevo

En unos días estará en el mercado Kinect, la nueva versión de la consola XBox. La gran novedad de esta consola no es una mayor capacidad en la generación de polígonos ni un mejor procesamiento de audio (que supongo que tendrá). Lo realmente nuevo es que no precisa de mando a distancia porque el mando es el usuario. La máquina dispone de varias cámaras de vídeo que detectan la posición y el movimiento del usuario con un nivel de precisión y sutileza increíbles.

Quienes hemos tenido la oportunidad de probarla hemos sentido ya la libertad que da saber que es la máquina quien se adapta al usuario y no al revés. Esto es, en sí mismo, un punto de inflexión y seguro que Kinect y su tecnología de reconocimiento de audio y vídeo creará un antes y un después, no solo en el mercado del entretenimiento sino en la interface hombre-máquina en sentido amplio.

Pero aún falta algo

Toda esa potencia de cálculo no sirve de mucho si los sistemas no son inteligentes. De nada vale un potente sistema de reconocimiento de voz o movimientos si posteriormente solo se reconocen términos, palabras o acciones concretas. La gramática de las lenguas que usamos los humanos es realmente compleja y cuando quien está al otro lado de la conversación (el ordenador) no está al mismo nivel la frustración es inevitable. Es esta frustración la que sentimos cuando, por ejemplo, hablamos con una voz enlatada que no es capaz de poner contexto a lo que le estamos contando.

Pero resulta que también tenemos potencia de cálculo para entender y procesar esas gramáticas incluyendo el análisis semántico y el contexto de la conversación. Por ejemplo, es curioso lo que se puede sentir charlando con Ikerne en la web de IparKutxa. Ikerne no está programada en base a palabras o términos concretos sino que realmente entiende lo que le decimos. Podemos decirle 'quiero comprar una casa' o 'me gustaría tener un dinero extra cuando me jubile' y nos recomendará una hipoteca o un plan de pensiones respectivamente. Podemos hablarle del color de su chaqueta, preguntarle por algún personaje histórico, político o futbolista,... Y no seré yo quien sugiera que se le haga algún comentario soez pero es muy divertido ver la mano izquierda con la que responde.

Y ahora juntémoslo todo. Tenemos potentes sistemas de reconocimiento de voz y sistemas igualmente potentes de reconocimiento visual. Y tenemos también un potente sistema de reconocimiento de gramáticas que acerca a las máquinas al modo en que se comunican los humanos. Todo ello dará lugar a nuevos asistentes inteligentes que permitirán superar la frustración que supone tener que hablar con una voz enlatada en los centros de asistencia.

Sería increíble poder hablar en un sitio web de viajes diciéndole cosas como 'quiero un vuelo a la capital del mundo el próximo miércoles y volver dos días después y quiero que sea lo más barato posible'. La máquina nos propondría un viaje a Bilbao (siento el chiste) el miércoles siguiente en clase turista con viaje de vuelta para el viernes. Eso sería una experiencia radicalmente diferente a lo que hoy en día se hace en las webs de las compañías aéreas.
Esta capacidad para interpretar al usuario en su propio lenguaje y para poder mantener una conversación fluida serviría para, por fin, ser capaces de superar el Test de Turing, desierto desde su planteamiento en 1950.

Las aplicaciones prácticas de esta nueva forma de interactuar con las máquinas tiene un campo de actuación ilimitado. Por ejemplo, pensemos en un asistente personal para personas mayores que viven solas. Desde luego, no es un tema baladí en una sociedad que envejece a marchas forzadas. ¿Que puede parecer una locura? Tal vez, pero empresas como Intel llevan años preparándose para esta nueva realidad.

Toda la tecnología necesaria comienza a estar disponible; solo hace falta ponerse a integrar. Ya hay quien lo ha bautizado como Interfaces Naturales; yo prefiero pensar que por fin la tecnología devolverá algo que secuestró hace mucho tiempo...

RSS

Los contenidos de Tons of IT están sujetos a licencia Creative Commons Reconocimiento 3.0 salvo donde se indique lo contrario.