Java, lo que pudo haber sido



RSS


Logo de Java
No se puede decir que Java sea nuevo en nuestras vidas, lleva más de quince años con nosotros y su gran éxito ha ocurrido en detrimento de otros muchos lenguajes de programación muy comunes en los años '90.

Pero Java, como lenguaje de programación, no es sino una pieza más -aunque importante- dentro de la Plataforma Java entendida en su conjunto. En el fondo, se buscaba compatibilizar cualquier dispositivo de forma que una misma aplicación pudiera funcionar sin cambios en un PC de escritorio, un servidor, un televisor, un teléfono móvil o hasta un PLC industrial. Daba igual cual fuera del sistema operativo que gestionase el dispositivo porque por encima de él se situaría la Máquina Virtual Java (JVM) que lo haría todo compatible.

Como peaje a esa maravilla tecnológica, todos los desarrollos de aplicaciones deberían hacerse en el nuevo lenguaje de programación: Java. No importaba si se trataba de una aplicación de gestión financiera o la gestión de la tarjeta SIM en un teléfono móvil, todo debía hacerse en Java.


...Y la realidad quince años después

La realidad es que Java es el lenguaje de programación más popular en la actualidad compartiendo ese primer puesto con alguno de los lenguajes (VB o C#) de la plataforma .NET, según quien haga la medición. Sin embargo, del sueño de compatibilizar las plataformas no queda ni rastro.

Arquitectura J2EE
Y no es que una aplicación diseñada para un servidor no funcione en un TV o un teléfono. Es que una aplicación diseñada para un servidor de aplicaciones J2EE no funciona en ningún otro servidor J2EE, al menos sin cambios. En muchas ocasiones incluso hay problemas en función del sistema operativo anfitrión o el motor de base de datos.

Seguramente habrá muchos teóricos que piensen que eso es una barbaridad. Pero no lo es, es la simple constatación de la realidad.

Además de los problemas de compatibilidad, prácticamente nadie se plantea desplegar Máquinas Virtuales Java en nada que no sea un servidor (muy potente) porque poner una capa de homogeneización por encima del sistema operativo y el hardware tiene un coste de recursos inasumible, máxime teniendo en cuenta los gravísimos y frecuentes problemas que la plataforma Java ha sufrido en la gestión de la memoria.

Es decir, hemos cambiado de lenguaje de programación, con todo lo que ello implica en la curva de aprendizaje de las personas y en los costes de migración, sin tener ni una sola de las ventajas que Java prometía. Visto en perspectiva, un disparate provocado en exclusiva por la moda.

Usamos Java para funciones muy dispares como diseñar sitios y aplicaciones web, para las aplicaciones Android, para la gestión interna de dispositivos de red o para aplicaciones empresariales internas. Y lo hacemos aún teniendo en cuenta que Java no es lenguaje de programación más óptimo en todos esos escenarios. De hecho, en su afán de compatibilizarlo todo, probablemente no sea el lenguaje de programación más óptimo en ninguno de ellos porque no es lo mismo gestionar las librerías gráficas de un teléfono móvil que realizar un proceso masivo de emisión de recibos. Aún así, usamos Java para todo ello.

El canon que nos toca pagar viene en forma de mayores plazos y costes de programación, sobre todo en aplicaciones de gestión (que son la mayoría en el ámbito corporativo) donde se han dejado de lado otros lenguajes de programación infinitamente mejor preparados para esa función pero bastante menos fashion.


Como el chaval del r9

Esquema mental de un programador J2EE
Para compensar muchas de esas carencias y nuevas necesidades en Java han surgido un gran número de frameworks de desarrollo y tecnologías que complementan la funcionalidad original.

De hecho, saber Java es solo el principio para hacer aplicaciones Java. Hace falta tener conocimientos de otras tecnologías y frameworks como JavaServer Faces, Spring, Struts, Hibernate, servlets, applets, JSPJDOM, Apache Velocity, JBoss Seam, Apache Wicket,... según las preferencias del equipo de desarrollo y el tipo de aplicación que se quiera desarrollar.

En cierta medida, Java se parece a la leyenda del chaval del r9, que partiendo de un coche más bien normalito y a base de complementos intenta igualar al Kadet GSI de su cuñado.


Terminando

Estoy convencido de que si pusieran a un informático a analizar el oleaje con el objetivo de fijar la mejor posición para un generador eléctrico, acabaría desarrollando un modelo para normalizar el tamaño, posición, fuerza, caudal y frecuencia de las olas. Seguramente nadie se lo habría pedido, no podría ser implementado en la vida real y obligaría a desperdiciar datos vitales de cada ola a fin de hacerlas compatibles. Pero quedaría de lo más mono en un mercado absolutamente dominado por las modas. Qué le vamos a hacer, somos así.

Para no flagelarnos, quizá sea un buen momento para aprender algo de JAMon.


Enlaces relacionados

     › Programación, ¿arte o ciencia?
     › El día que SAP entró en la empresa
     › ¡Que poco sexy eres COBOL!
     › La fashion week tecnológica


www.tonsofit.com



RSS

IPv6 empieza a dar señales de vida



RSS

Despliegue de IPv6
Han pasado ya 18 meses desde que se anunció que la capacidad de direccionamiento de Internet se había acabado. La Corporación de Asignación de Nombres y Números en Internet (ICANN) asignó el viernes 4 de febrero de 2011 los cinco últimos bloques de direcciones, lo que dio por agotada la capacidad del protocolo IP versión 4 (IPv4).

Los medios de comunicación lo contaron como el principio del fin si no se migraba rápidamente a IPv6 y, sin embargo, pasado todo este tiempo parece que no ha pasado nada, ¿o tal vez sí?

Lo que realmente ocurrió a principios de 2011 es que el organismo que gestiona el plan de direccionamiento global de Internet asignó a los ISP los últimos rangos que le quedaban. Pero eso no implica que los ISP, que son los que realmente asignan direcciones a usuarios particulares y empresas, se hayan quedado aún sin stock de IPs.

Número de direcciones IP por países
Fuente: Wikipedia
Y esto del stock de IPs por proveedores de Internet debe mirarse además desde una óptica un tanto peculiar ya que el número de IPs disponibles por países no es precisamente proporcional.

Estados Unidos tiene reservadas más de 1.500 millones de IPs (más del 35% del total) pese a no representar más de un 5% de la población mundial.

En el lado contrario están China o India que, pese a tener un 20% de la población mundial cada una, no pasan del 7% y el 0.8% respectivamente de los 4.300 millones de IPs disponibles en IPv4.

Y no es que algunos países tengan trato de favor con la ICANN, sino que en los inicios de Internet 4.300 millones de IPs debían parecer algo cercano al infinito y por ello los rangos se asignaban con bastante alegría.

Lógicamente, los países que antes se desarrollaron en Internet son quienes tienen más direccionamiento disponible.

Vistas las estrecheces de la versión 4 de IP, el grupo de trabajo que desarrolló IPv6 -allá por 1998 y dentro de la RFC 2460 del IETF- no escatimó a la hora de ampliar el rango de direcciones posibles. Así se llega a un nuevo protocolo con 340 sextillones de direcciones posibles que, puesto en forma numérica, es un 340 seguido de 36 ceros.


La evolución de IPv6

Evolución de IPv6
Fuente: Google
IPv6 tiene más de 14 años de vida y sin embargo es un gran desconocido. Su evolución no ha sido lenta, simplemente ha sido nula. En parte porque el sector de TI está cansado de agoreros que anuncian el fin del mundo (problema del año 2000, por ejemplo), en parte porque los humanos siempre tenemos algo más urgente e importante de que preocuparnos frente a un problema futuro que aún no es tal.

Por ello, la curva de crecimiento fue prácticamente plana hasta 2011 pero a partir de ahí, pese a que los ratios globales son aún pobres, la pendiente se ha ido inclinando notablemente (línea verde en la gráfica).

Y junto con el crecimiento hay otra tendencia que se muestra con total claridad (línea roja en la gráfica). Los mecanismos que el propio protocolo implementa para la transición con IPv4 -6to4 y Teredo fundamentalmente- caen con la misma rapidez con la que crece IPv6.


Entonces, si todo está preparado ¿por qué no se migra?

Vint Cerf nos pide que pasemos a IPv6
Lo más fácil es describir lo que no es un problema. Los sistemas operativos de escritorio están preparados desde hace más de 6 años. Tanto Windows como Linux y MacOS disponen de pila IPv6 desde hace al menos dos versiones. Lo mismo ocurre con los sistemas operativos de servidor que, en general, no presentan ningún problema. Incluso Java soporta IPv6 desde la versión J2EE 1.4 del año 2002. Y por supuesto, todos los smartphones y tablets soportan IPv6 sin ningún problema desde sus inicios.

Las aplicaciones no deberían tener ningún problema en el cambio de protocolo (salvo aquellas tengan filtros en función de la dirección IP o funcionalidades similares) ya que en las capas altas el cambio es totalmente transparente para ellas.

Por otra parte, los dispositivos de red (firewalls, routers, switches, balanceadores,...) están adaptados o en su caso disponen de revisiones del firmware que permiten que funcionen sin problema con IPv6.

Visto lo anterior y analizada la situación de despliegue del nuevo protocolo sólo cabría concluir que la adopción de IPv6 es técnicamente muy compleja, pero no es así. La migración es laboriosa porque exige repensar todo el plan de direccionamiento y aplicarlo de nuevo a todos los equipos y dispositivos, pero no es técnicamente compleja.

Pese a ello, las empresas no ven la necesidad de migrar porque los usuarios domésticos aún son IPv4. Los usuarios domésticos no migran porque sus proveedores de acceso a Internet no lo hacen. Y los proveedores de acceso a Internet no migran porque las empresas no les instan a ello. Pero este círculo vicioso está comenzando a romperse.


El inicio del cambio. Las razones.

El primer motivo para el cambio es el propio agotamiento del plan de direccionamiento de IPv4. Quienes más lo están sufriendo son los países emergentes que tienen una fuerte demanda de nuevas direcciones y no tienen capacidad de solicitar más al ICANN.

Crecimiento de las necesidades de direccionamiento del Internet de las cosas
Fuente: Google
El segundo motivo es la explosión del Internet de las cosas. La previsión de necesidades de direccionamiento para todos los nuevos dispositivos que serán conectados a Internet en un futuro cercano es espectacular. Se espera que en 2016 haya unos 5.000 millones de internautas y más de 20.000 millones (cuatro veces más) de cosas conectadas a la Red.

El tercer motivo es que Estados Unidos, pese a tener casi un tercio de todas las direcciones posibles de IPv4, está tirando del carro con mucha fuerza. El CIO Federal durante los años 2009-2011, Vivek Kundra, envió en septiembre de 2010 un memorándum a los CIOs de las Administraciones y Agencias gubernamentales para que hiciesen visibles sobre IPv6 todas sus aplicaciones y webs públicas antes de finales de 2012. Y parece que aunque sea sobre la campana, se va a cumplir.

El cuarto y último motivo es que países como Francia o Rumanía (líder mundial en adopción de IPv6 con más de un 8%) tienen la gran suerte de contar con proveedores de acceso a Internet que ya están migrando de forma masiva los dispositivos de sus clientes residenciales. Otros, bien por temor a lo desconocido, falta de iniciativa, escasas ganas de innovar, escasez de medios o cualquier mezcla de ellas, prefieren hacer carrier-grade NAT (lo mismo que el NAT que se hace en las redes empresariales pero a nivel de operadora) mediante grandes inversiones en electrónica, retrasando la adopción en los países de su ámbito de influencia.


Empieza a haber diferencias entre países

En el lado contrario de los países activos en la adopción de IPv6 están los países que van en el furgón de cola. Países como Italia o España (¿tal vez la baja inversión en I+D+i también determina estas cosas?), ambos por debajo del 0.05%, destacan a la baja frente a Francia (>4,5%), Estados Unidos (>1,5%), China (>1,0%) o Japón (>2,0%). Es decir, Italia y España están 30 veces peor que Estados Unidos y 40 veces peor que Japón en adopción de IPv6. O visto de otro modo, hay países que ya están migrando mientras otros siguen en la inopia.

En algún momento del futuro cercano se producirá un punto de inflexión por el que el tráfico IPv6 comenzará a crecer de forma vertiginosa (viendo las gráficas parece que estamos ya en el inicio). Y es razonable pensar que las empresas y países que no estén preparadas tendrán problemas de visibilidad de sus sitios web en aquellos otros países que mayoritariamente ya hayan evolucionado sus redes porque, como muestran las gráficas de IPv6, los mecanismos de conversión de protocolos están decreciendo al mismo ritmo que crece el propio IPv6.

Si nuestras empresas y países tienen intereses comerciales en zonas emergentes o en las grandes potencias, no podemos dejar pasar este tren, salvo que no veamos a Internet como lo que es: un gran escaparate para mostrar y vender nuestro producto. A migrar toca.



RSS

¿Medio de comunicación o máquina de matar?



RSS

Privacidad en las redes sociales
Desde finales de Junio, en apenas tres meses y a razón de una al mes aproximadamente, Twitter ha conseguido hacer mundialmente famosas a tres personas: una reportera deportiva de Telecinco, una veterana aprendiz de restauradora de arte y una concejala de un pequeño pueblo de Toledo.

Las tres han visto como sus fallos y equivocaciones han sido objeto de mofa mundial a través Internet. Tal vez no sea la primera vez que ocurre pero sí ha mostrado con total crudeza la potencia de las redes sociales para castigar la imagen y el honor de cualquier persona.

Y sí, han sido las redes sociales, porque los tres fenómenos mediáticos se han iniciado en Internet antes de saltar a los medios de comunicación tradicionales.

Hablando de la reportera de Telecinco que retransmitía en directo los partidos del Mundial de Fútbol 2012 ¿quién no ha cometido nunca un fallo en el trabajo? ¿Cómo nos sentiríamos si ese fallo, grande o pequeño, fuera la mofa nacional durante días?

En el caso del Ecce Homo, la improvisada y bienintencionada restauradora era una persona de una cierta edad que a buen seguro lo ha pasado realmente mal. ¿Qué habría pasado si esta señora hubiera tenido algún problema médico severo por el estrés causado? ¿Se sentirían culpables quienes han hecho comentarios jocosos sobre ella o quienes simplemente los han re-difundido?

Y qué decir de la concejala toledana. ¿Quién no ha hecho algo en el ámbito privado que sería ruborizante si llegase a ser del dominio público?


Repite que algo queda

Autocontrol en los medios de comunicación convencionales
El daño infringido a las personas puede venir de un disparate dicho una única vez o de comentarios soeces repetidos hasta la saciedad. Teniendo eso en cuenta, un comentario muy dañino dicho una única vez en televisión o radio puede compararse con un comentario ofensivo aunque algo más banal repetido constantemente en Twitter o Facebook.

Lo fácil sería decir que la culpa es de las nuevas tecnologías pero no es así. Es la persona quien tiene la libertad de hacerse eco de la noticia y re-difundirla porque eso es el libre albedrío del que tanto presumimos los humanos. Las nuevas tecnologías son sólo el medio.

Los medios de comunicación tradicionales conocen este problema desde hace tiempo y de algún modo realizan una cierta auto-regulación (en algunos casos discutible, es verdad) que en líneas generales funciona. Pero ¿cómo conseguir una regulación endogámica cuando para ello hay que conseguir la complicidad de, potencialmente, todas las personas del planeta? Porque el medio de comunicación ahora somos los propios ciudadanos.

Al ser imposible la auto-regulación, sólo queda la regulación impuesta y en ese caso se hace muy evidente que las leyes de defensa del honor y de protección de la intimidad no están pensadas para los medios de comunicación 2.0.

El reto está en legislar (en el código penal, LOPD,...) de forma que se garanticen simultáneamente y de forma efectiva el derecho a la intimidad, el derecho al honor, la libertad de expresión y la libertad de prensa. Dejar las cosas como están es asumir que hay nuevos medios de comunicación que una vez que encuentran una víctima son verdades máquinas de matar.


Nota adicional
Brujas de Zugarramurdi

Sin ánimo de caer en el amarillismo, tampoco puede pasar desapercibido que los tres casos han tenido a mujeres como víctimas. ¿Casualidad? Esperemos que sí porque si se mantiene el ratio, dentro de cuatrocientos años alguien podría confundir las redes sociales con el Zugarramurdi del siglo XXI.


Enlaces relacionados

     › Tons of IT: ¿Debería Internet aprender a olvidar?
     › Tons of IT: Lo que Google sabe de nosotros
     › Tons of IT: 8 lecciones de TI aprendidas con Wikileaks


www.tonsofit.com


RSS

Hacia las e-Elecciones



RSS

Gran cantidad de papeletas electorales Algunos datos sobre las elecciones a las Cortes Generales de 2011:

  • Se imprimieron cerca de trescientos cincuenta millones de papeletas (339.968.831).

  • Junto con las papeletas se prepararon algo más de setenta y cinco millones de sobres (76.010.500).

  • Se habilitaron más de doscientas veinte mil urnas (221.179) en algo más de veintitrés mil colegios electorales (23.082), lo que hizo necesario casi un millón de manuales de instrucciones para los miembros de las mesas (912.860).

  • En torno a cien mil agentes de las diferentes Fuerzas de Seguridad fueron movilizados para garantizar la seguridad en el voto.


En total casi ciento veinticinco millones de euros (124.838.310) que, por ponerlo en perspectiva, supone casi el tres por ciento de toda la inversión del Estado en I+D para 2012.

Teniendo en cuenta todos estos datos, el coste de ir a votar fue de unos tres euros y medio por persona, que suben a más de cinco euros por persona si únicamente se tiene en cuenta a aquellos que de forma efectiva ejercieron su derecho al voto (abstención algo superior al 30%).

Está claro que el sistema no es barato y tampoco es neutral en la huella de carbono precisamente.


¿Es posible otra forma?

Son ya abundantes las referencias de países que realizan el proceso del voto de forma electrónica pero hay diferencias entre unos modelos y otros.

Máquina de votar
Algunos se basan en máquinas de votar ubicadas en los mismos colegios electorales donde antes estaban las papeletas. Este sistema mejora notablemente el proceso porque de un plumazo elimina el papel (cientos de millones de papeletas) y agiliza el recuento.

Sin embargo, toda la infraestructura necesaria para habilitar el sistema de voto (los colegios electorales, por ejemplo) y todas las restricciones del momento y el lugar (las elecciones se realizan en un día concreto e implican desplazamiento a un colegio electoral) le siguen siendo de aplicación.


¿El voto online?

La otra vía, la que probablemente tiene más futuro, pasa por Internet y las plataformas de voto online. Países como Suiza, Reino Unido, Estados Unidos, Irlanda o Estonia ya lo han puesto en marcha pese a que los críticos identifican en él tres problemas fundamentales:

  • Mayor número de puntos susceptibles de alteración fraudulenta del voto
  • Imposibilidad de repetir el recuento al no haber nada físico
  • Mayor riesgo de fallos en la privacidad de la información 

Probablemente algún devoto de lo 2.0 contestaría con un simple: si, es cierto, ¿y qué? Y algo de razón tendría porque negar lo digital a estas alturas sería tanto como no operar con el banco, ni con el supermercado, ni con las compañías de teléfono, gas o electricidad, ni con la propia Administración.

Voto por Internet
Pero también es cierto que eliminar el papel en este caso puede hacer sentirse incómodo a muchos ciudadanos.

Acercando posturas, ya hay referencias de cómo implementar un sistema donde los votos estén cifrados en origen con un certificado cuya clave privada -la que permite descifrar- esté bien custodiada (se mitiga el problema de la privacidad).

Que en el instante del voto generase un 'ticket' que el ciudadano recibiría en un SMS -o cualquier otro canal alternativo- para confirmar que se ha procesado y pueda ser verificado por el votante (se incide en el primer problema).

Y por último, donde los votos recibidos se almacenasen en un sistema de custodia digital en formato de documento no editable, incluso disociando el voto de la persona y siempre por el periodo de tiempo máximo que marque la Ley ante un posible recuento (se hace hincapié en el segundo problema).


Terminando

Tal vez pensar en una plataforma así basándola en la identificación de usuario/clave de Facebook sea banalizar demasiado el proceso (aunque esto no quita para que los mecanismos de gestión del censo tengan un margen de evolución importante) pero tampoco hay que empezar a construir desde cero.

Tenemos plataformas de certificados robustas e incluso hay mecanismos de identificación de doble canal (la banca online usa principalmente el SMS como canal de confirmación) que permiten identificar de una forma suficientemente fehaciente a la persona.

Y tenemos plataformas de custodia segura de documentos (Metaposta, por ejemplo) que podrían albergar el voto en el formato de documento elegido durante el tiempo necesario.

Tal vez la innovación sea más una cuestión de repensar el proceso que de tecnología en sí. Cuesta creer que haya que seguir imprimiendo cientos de millones de papeletas en cada ocasión.



Enlaces relacionados:

     › Tons of IT: Open Data no es una opción, es una necesidad
     › Tons of IT: Haciendo open data en modo low cost
     › Tons of IT: El extraño benchmarking de TI de las Administraciones Públicas



www.tonsofit.com


RSS

Olimpiadas y tecnología



RSS

Estando en plena celebración olímpica no me resisto a plantear una pregunta que relaciona la tecnología con el deporte y que, probablemente, no tardará demasiado en crear un problema ético al movimiento olímpico, ¿tal vez en Madrid 2020?

Logotipo olímpico
Dos avances en biotecnología que pueden cambiarlo todo:

  • El primero de los avances tecnológicos es el de la generación de células madre a partir de cualquier otra célula. Varios equipos han llevado ya su investigación al nivel de madurez suficiente como para ser capaces de generar células madre -células que en términos informáticos equivaldrían a un sistema operativo de propósito general- partiendo de células sanguíneas convencionales. Y a partir de ahí son capaces de reconvertir esas nuevas células madre en células de cualquier parte del cuerpo
¿Qué para qué sirve? Pues, por ejemplo, para tomar la tráquea de un donante, quitarle todo el tejido orgánico que la recubre quedándose únicamente con el colágeno, recubrirlo de nuevo con células del receptor e implantárselo sin ningún tipo de rechazo. A fin de cuentas, el sistema inmunológico del receptor no lo percibe como ajeno. Exactamente esta operación se realizó con éxito en Barcelona hace más de cuatro años.

  • El segundo de los descubrimientos revolucionarios para la vida es la Telomerasa, una enzima que, una vez salvados los efectos secundarios que aún impone su administración, podría hacer a cualquier ser vivo inmortal al ser capaz de anular el envejecimiento celular. Puede parecer ciencia-ficción pero en el 2009 científicos de Berkeley ganaron el Nobel de medicina por ello y en pruebas de laboratorio ya se consigue doblar la vida media de las cobayas.

Hasta aquí la tecnología.


El olimpismo

Jugadores del Real Madrid animan a AbidalImaginemos que un deportista de élite tiene un problema físico y el tratamiento de su dolencia exige el trasplante de algún órgano, digamos el hígado. Lógicamente, el deportista será animado por sus compañeros e incluso por sus rivales deportivos y, sin duda, su vuelta al deporte se considerará un éxito de todos. Por encima del deportista está la persona.

Ahora imaginemos que el problema físico se produce en el corazón o en los pulmones y que el deportista es trasplantado con un órgano que es mucho más potente -puede que incluso sea de otro animal- que uno convencional. Con él tendría una potencia vascular o una capacidad de oxigenación muy superior a la de sus compañeros. Pese a ello probablemente serían aún pocos los que protestarían ya que el nuevo órgano, además de darle una potencia física extraordinaria, le permite seguir viviendo.

Démosle una vuelta de tuerca más. El órgano trasplantado es el tobillo del pie de apoyo de un saltador de altura. La operación se lleva a cabo pese a no existir un problema previo en el tobillo del atleta y el trasplante se realiza con un nuevo tobillo de titanio fijándole músculos de látex ultrarresistente que gracias a la aportación constante de telomerasa no envejece. Ahí ya cambian las cosas.

¿Dónde está el límite? ¿Hasta qué punto podrían competir en los juegos olímpicos y en qué momento se les haría competir en los para-olímpicos? ¿Se admitiría un récord olímpico de un atleta así? ¿Estamos preparados para que los récords de los juegos para-olímpicos sean mejores que los de los juegos convencionales?


www.tonsofit.com

HMEH5EJRUQ76

RSS

El día que SAP entró en la empresa



RSS

Logotipo de SAP
Un buen día SAP entra en la empresa. Alguien, probablemente de algún área de negocio, ha tomado la decisión de implantar el módulo XX de SAP para resolver una parte importante del negocio y el personal de TI aún no es consciente de la cantidad de cambios que se le avecinan.


Y los cambios llegan

Llegarán cambios en el área de operación. Las promociones de código entre entornos o deploys en terminología Java pasarán a llamarse transportes. Se harán desde el propio entorno SAP que dispondrá de herramientas para guiar todo el proceso que, en general, no estarán integradas con el resto de procesos de gestión del cambio y configuración de la instalación. Los jobs o procesos batch ahora pasarán a llamarse cadenas y también serán gestionadas desde un planificador propio de SAP que, como es de esperar, no se integra con el planificador corporativo. Y también habrá que decirle a los técnicos que vayan olvidando todo lo que conocían sobre los procesos de backup ya que serán completamente nuevos a todo lo visto hasta ahora.

Dando una capa de pintura SAP al personal de TI
Habrá cambios en el área de sistemas e infraestructuras. Todo lo aprendido hasta ahora sobre tunning de base de datos será, en general, algo del pasado. Será el propio SAP quien se encargue de toda esa gestión. Lo mismo aplicará en general para la configuración de los monitores transaccionales o los servidores de aplicaciones ya que será el propio SAP quien, en general, lo gestione todo. Los procesos de cambio de versión y aplicación de parches al software de base serán completamente diferentes a todo lo vivido hasta ahora.

Habrá también cambios en el área de desarrollo. Tendrán suerte los programadores COBOL porque en ABAP encontrarán algo muy similar a un COBOL orientado a objetos. Aunque tendrán que olvidarse de su creatividad ya que, con toda seguridad, mucho de lo que quieran hacer estará ya resuelto por un proceso estándar que únicamente habrá que adaptar. Más complicado lo tendrán los programadores Java ya que, pese a que WAS (el servidor de aplicaciones de SAP) es compatible con J2EE, no es aventurado decir que la programación Java en SAP se parece a lo que ya conocen de Java como un bit a una lechuga. El concepto de JSPs, más o menos, se transformará en algo llamado Web dynpro que encapsulará toda la lógica de negocio y lo cambiará todo.

Por último, habrá también cambios en la estructura de los equipos de trabajo. En la informática de siempre existía la figura del programador, del analista y del jefe de proyecto (cada organización le da un nombre diferente pero en general, quizá añadiendo o refundiendo algunos de ellos, los conceptos se mantienen).
Pero al llegar SAP aparece el consultor de SAP. No es el jefe de proyecto, tampoco es equiparable al analista y está muy lejos del programador. Y tampoco es el consultor de negocio habitual propio de las grandes consultoras. Su función es trasladar los requerimientos del cliente al modelo estándar de SAP y, en general, su mayor potencial no es conocer el negocio en sí sino el modelo de datos y procesos del estándar del módulo SAP en cuestión.


Gestionando el cambio

Etapas de las gestión del cambioCon esos antecedentes, es prácticamente imposible que el personal de TI de la compañía reciba el nuevo proyecto SAP con los brazos abiertos. De hecho, lo más probable es que se produzca un gran shock en el que los ya existentes y los nuevos se vean mutuamente como una amenaza.

Tras el shock inicial habrá un 10 por ciento de personas que se adaptarán al cambio con gran rapidez y valentía; habrá otro 10 por cierto que, si el cambio es potente, probablemente se quedará por el camino y nunca llegará a adaptarse.

El 80 por ciento restante -la parte central de la campana de Gausspasará una por una por todas las etapas habituales de la gestión del cambio y si las cosas se hacen bien, gestionando en paralelo los cambios en la parte técnica y en la humana, probablemente no sin esfuerzo se llegará a la ansiada integración. El tiempo para esta travesía variará en función de la persona pero lo que es seguro es que no será inferior a los dos o tres años.


Integración

Es decir, al final deberá producirse la integración de las aplicaciones y formas de hacer del modelo SAP con las aplicaciones y formas de hacer ya existentes en la Organización. Así, habrá que empezar integrando el área de operación con herramientas y procesos comunes -en aplicaciones SAP y no SAP- para las copias de seguridad, la planificación de procesos o la gestión de la configuración y el cambio entre entornos.

Trabajando en equipo
Después llegará la integración del área de infraestructuras. Los técnicos de sistemas del resto de entornos irán familiarizándose con SAP hasta el punto de llegar a integrarlo en sus quehaceres diarios.

Por último se producirá la integración de los diferentes modos de planificar, diseñar y desarrollar aplicaciones. Los programadores y analistas de las aplicaciones pre-existentes descubrirán que SAP no es [tan] diferente de lo habido hasta el momento. Y a medida que se vayan familiarizando irán ganando en soltura dentro del entorno, tanto para el desarrollo en sí como para la parametrización del estándar. Será el momento para plantear conexiones e intercambios de datos entre los dos mundos.

Y si todo eso se realiza con éxito, simplemente, el consultor SAP externo dejará de ser tan vital. Los profesionales de la compañía -analistas reconvertidos a consultores o consultores reconvertidos a analistas- tendrán tanto el conocimiento del estándar como el conocimiento del negocio y la organización interna, lo que hará que la necesidad del consultor SAP externo se reduzca al máximo.

Es posible que la verdadera integración con SAP llegue cuando a la contabilidad se le vuelva a llamar contabilidad y no FI, cuando a los procesos de compra se les llame también por su nombre y no MM, cuando ya nadie se refiera a las aplicaciones de producción como PP, cuando un documento se guarde en el gestor documental y no en RM o cuando las aplicaciones de gestión de personas vuelvan a tener su bonito nombre, personas, y no HR.

No es trabajo de un día pero se hace camino al andar.


Enlaces relacionados:

     › John P. Kotter. Leading Change. Harvard Business School Press, 1996
     › Tons of IT: ¡Qué poco sexy eres COBOL!

     › Tons of IT: El mainframe frente a sí mismo


Nota: Todo lo aplicado a la gestión del cambio con aplicaciones SAP es válido para otros cambios traumáticos como la evolución de mainframes IBM hacia sistemas abiertos o la migración a Open Source. Es habitual que quienes plantean este tipo de proyectos se centren exclusivamente en lo técnico y tiendan a olvidar que las etapas de duelo profesional por el entorno que se nos fue se miden en un orden de magnitud de años.




RSS

De como la tecnología está cambiando los hábitos del trabajo



RSS

  • «Dos de cada tres empleados esperan que los responsables de TI de sus empresas les permitan utilizar cualquier dispositivo en cualquier momento y en cualquier lugar».

  • «El número medio de dispositivos (PC, tablet, smartphone,...) por empleado será de 3,3 a finales de 2014».  

  • «El 55 por ciento de los trabajadores cree que conectar su propio dispositivo en el trabajo es más un derecho que un privilegio y el 36 por ciento admite que ha violado o violaría si hiciera falta la política corporativa de seguridad en caso de que no se le permitiese conectarlo».    

  • «Casi el 80 por ciento de los empleados sacrificaría un 10 ciento de su salario a cambio de mayor flexibilidad sobre teletrabajo, incluso utilizando sus propios dispositivos para conectarse a la red corporativa de su compañía».  

  • «Dos tercios de los empleados cree que la seguridad de sus dispositivos personales es responsabilidad suya y no de su empresa, incluso cuando los utiliza para conectarse a las redes corporativas».

Detrás de todo esto está lo que las grandes consultoras han bautizado como BYOD (bring your own device) que más aterrizado determina la facultad de permitir que los empleados utilicen sus propios dispositivos en el trabajo o permitir que se conecten a los sistemas y aplicaciones corporativos desde cualquier ubicación ajena a la red interna.

Las conclusiones anteriores se derivan de diversos estudios de Cisco, Aruba, Fortinet, Gartner o IBM entre otros. Es cierto que algunas de estas empresas no son lo que se dice neutrales con el BYOD ya que su desarrollo implica un nuevo mercado para ellas. Sin embargo, también es cierto que algunas de sus conclusiones, al margen de que se puedan discutir algo los porcentajes, no resultan en absoluto extrañas o poco creíbles.


Los hábitos de trabajo

PC, tablet y smartphone
Los hábitos de trabajo están cambiando y lo hacen de forma realmente rápida a medida que los nuevos trabajadores de la Generación Y se van incorporando al mercado laboral.

Se espera que en 2012 las ventas de PCs, tablets y smartphones ya superen los mil millones de unidades y la tendencia para los próximos años es al alza llegando prácticamente a los dos mil millones anuales en 2016.

Un porcentaje elevado de todos esos dispositivos inteligentes serán adquiridos directamente por usuarios finales, no por las empresas. Y de entre todos ellos, quienes quieran conectarlos con las redes y aplicaciones corporativas serán bastantes más de lo que los CIO de sus empresas puedan imaginar.

El estudio de Gartner sobre BYOD indica que son un 34 por ciento los usuarios que se conectan a las redes corporativas con dispositivos personales. O al menos eso creen los CIO porque la realidad es muy diferente; son un 69 por ciento -más del doble- los usuarios que aseguran hacerlo.


Ventajas

Teléfono con Windows Phone
Sin duda, el fenómeno BYOD tiene claras ventajas para las empresas. La primera, probablemente la más clara, el coste. La empresa puede reducir sus inversiones en nuevos dispositivos si son los usuarios quienes se auto-proveen. Es incluso probable que en algunos casos se llegue a la situación en la que las empresas no provean equipos portátiles para personas que están siempre en movilidad confiando en que sea el propio trabajador quien disponga de algún tablet, smartphone o ultrabook que pueda utilizar. Probablemente parezca lejano pero también lo parecía hace unos años el que los trabajadores que están mucho tiempo fuera de la oficina no tuvieran puesto de trabajo fijo asignado en su empresa y sin embargo es ya práctica habitual en muchísimas compañías.

Pero hay otras ventajas como una mayor flexibilidad en el trabajo ya que el BYOD está muy ligado al teletrabajoIncluso podría plantearse una mayor productividad sobre la base de que cada trabajador utiliza la herramienta tecnológica que mejor se adapta a sus necesidades y gustos.


Inconvenientes

También hay algún pero. El principal es la seguridad ya que BYOD exige abrir las redes corporativas a un mundo exterior hasta ahora considerado hostil. Gartner asegura que en los tres próximos años los incidentes de seguridad aumentarán un 25 por ciento en aquellas empresas que no reinviertan al menos un tercio de lo que ahorran al no tener que comprar dispositivos.

Acceso no autorizadoAdemás, los usuarios exigen que esa apertura de los sistemas sea completa y similar a aquello a lo que están acostumbrados, es decir, a las herramientas que usan en su ámbito personal. Así, el 81 por ciento de los usuarios estaría realmente frustrado si tuviera que escribir su password cada vez que se conectase a Facebook y casi la mitad estaría molesto si tuviera que desinstalar Spotify de su dispositivo para acceder a información corporativa.

Ese es el reto, permitir una conexión segura a la infraestructura corporativa incordiando lo menos posible a los usuarios con claves de acceso y otros mecanismos de seguridad. De hecho, a la fecha, los usuarios identifican las políticas corporativas de los departamentos de TI como los principales obstáculos para la adopción de BYOD.

Al margen de la seguridad, hay otros inconvenientes a tener en cuenta como que los centros de atención a usuarios tendrán que lidiar con usuarios que utilizan dispositivos que en algunos casos, dada la diversidad existente, únicamente habrán visto en revistas especializadas. Es decir, el parque informático ya no será en absoluto predecible.


El futuro

Gadgets interconectadosEl 60 por ciento de los CIO, según Gartner, plantea en el corto plazo establecer una política flexible, segura y escalable para dar respuesta a BYOD. Y todo pese a que el coste total de dar soporte a BYOD es mayor que el equivalente sin él (Forrester).

Esto implica que habrá que empezar a cambiar algunos hábitos. Dejarán de tener tanto sentido (o ninguno) los complejos procesos de homologación de hardware. A fin de cuentas, si los usuarios pueden decidir qué utilizan para conectarse, ¿qué sentido tiene homologar uno u otro dispositivo? La contrapartida es que habrá que diseñar infraestructuras que funcionen con todos ellos.

Respecto al software, tampoco tendrán mucho sentido aplicaciones de gestión como las que permiten distribuir software en modo push a los dispositivos o las aplicaciones de inventario de tablets y smartphones. Todo tendrá que ser en base al concepto contrario: distribuir software en modo pull -como lo hace la web- o descubrimiento en tiempo real.

Incluso afectará a los procesos. Por ejemplo, los centros de atención a usuarios y el personal de soporte tendrán que aprender a trabajar con un cierto grado de incertidumbre porque trabajarán con usuarios que utilizan dispositivos que no conocen.

Los usuarios, más que nunca, quieren conectarse desde cualquier lugar, en cualquier momento y con cualquier dispositivo. Están ya acostumbrados a ello debido a la consumerización de TI. Por eso, ya no son válidas técnicas para identificar al usuario o al equipo en base a algo prefijado con antelación. Ahora hay que trabajar con una mezcla de información que permita determinar el riesgo: quien se conecta, desde qué equipo se conecta, qué software de seguridad tiene instalado ese equipo, a qué aplicación se conecta,... y en base a ello bloquear o permitir el acceso.

Un gran reto por delante.


Enlaces relacionados:


     › Informe de Cisco. Los responsables de TI respaldan el fenómeno BYOD. 
     › Informe de Fortinet. First Generation’ BYOD Workers Pose Serious Security Challenges to Corporate IT Systems
     › Informe de Gartner. Gartner Survey Shows BYOD Is Top Concern for Enterprise Mobile Security
     › Informe de Forrester. The costs and benefits of BYOD
     › Enterprise Mobility Blog de IBM: Bring your own device (BYOD): the new movement in mobility
     › Tons of IT: Consumerización de la informática corporativa


www.tonsofit.com



RSS

Desde deletear hasta twittear.



RSS

Hace unos días asistí a una presentación en la que el ponente, brillante por lo demás, no paraba de lanzar lindezas como la de la derecha.
...en la view hay un wizard dentro de las tools. En cualquier caso, no hay que tener know-how sobre databases porque en la user interface se puede hacer el carry de las foreign keys.

La frase me impactó tanto que corrí a escribirla para no olvidarla. Estaba siendo testigo de cómo se puede construir una frase completa con los verbos en un idioma y todos los sustantivos en otro, pese a no haber problema alguno para su traducción. Sin duda, fue toda una experiencia.

Pese a llevar con nosotros la pesada losa de ser un colectivo de mal hablados, de usar constantes términos técnicos, de tener una jerga propia ininteligible,... lo cierto es que con el paso del tiempo hemos ido mejorando. Han ayudado los acuerdos entre los principales fabricantes de software y las diferentes Academias que gestionan la evolución y correcto uso de las diferentes lenguas. Uno muy importante, por su enorme presencia en el software de escritorio, fue el acuerdo entre la RAE y Microsoft a finales de 1999 que, por ejemplo, permitió que sus sistemas operativos y aplicaciones dejaran de referirse al verbo «formatear» y utilizaran el correcto «dar formato» para referirse al proceso de «inicialización» de los discos.


¿Es una cuestión de edad?

Fallos gramaticales en los sistemas operativos
Viéndolo con perspectiva, resulta curioso que la cantidad utilizada de términos técnicos «localizados» incorrectamente del inglés es directamente proporcional a la edad. A mayor edad, mayor uso de términos técnicos pseudo-traducidos.

Resultan habituales entre los programadores y técnicos de sistemas de entornos mainframe (MVS o zOS por ejemplo) verbos como «deletear» o «renamear», o llevar a cabo acciones como hacer «IPL». Todo, pese a ser muy sencillo referirse a eso como borrar, cambiar de nombre o reiniciar el equipo. Es cierto que cada entorno tiene su propia jerga pero, en general, el uso de términos mal traducidos es menor en los entornos creados en la década de los '90 o 2000.

El mismo concepto es denominado de una forma diferente según el entorno. Por ejemplo, una corrección o mejora del sistema operativo se llama Facility en zOS, Service Pack en Windows, Patch en Unix y Linux, Fix Pack en AIX y OS/2 o Update en MacOS, y eso no ayuda demasiado.

Pero la diferencia fundamental es que, en general, las nuevas generaciones de profesionales hablan correctamente o, en el peor de los casos, mezclan el idioma con términos en inglés. No es habitual que hagan traducciones al vuelo del estilo «deletear» un fichero o «alocar» memoria.


Convirtiendo sustantivos en verbos

Para añadir más diversión, se están incorporando nuevos términos que provienen de conceptos que no existían hasta ahora. Es decir, no se trata de traducciones mal hechas sino de conceptos nuevos que son traducidos a las diferentes lenguas siguiendo el curioso mecanismo del Ingles por el que se puede convertir cualquier sustantivo en verbo simplemente añadiendo el to por delante.

Es el caso de «chatear»«bloguear», «tuitear» y hasta «retuitear». Por ejemplo, «tuitear» es ya un verbo común que no proviene de una mala traducción (como es el caso de «deletear») sino de la adaptación a la Lengua de un concepto nuevo (la palabra tweet no existía hace cinco años, salvo que los usuarios de Twitter sean jilgueros). Curioso trabajo tienen por delante las Academias.
El término informático "escalado"


Terminando

Evitar este tipo de términos mal traducidos no es tarea simple. Ayer mismo, quizá porque estaba sensible con el asunto, me sorprendí a mi mismo «escalando» un incidente y doy fe que el incidente no tenía parecido alguno con un alpinista. Algún día, con más tiempo, intentaré hacer una recopilación de barbaridades lingüísticas frecuentes.
Si alguien se anima con alguna vamos haciendo fondo de armario... ;-)


www.tonsofit.com


RSS

¿Ya no hay deslocalización en el negocio de TI?



RSS

Deslocalización de procesos
De un tiempo a esta parte ha dejado de ser habitual que las grandes consultoras de TI hablen del offshore o de la subcontratación de tareas en terceros países con costes laborales más bajos. Parece que el término ya no está de moda, tanto que algunas utilizan eufemismos como bestshore para evitar referirse a él.

¿Acaso es más conveniente hacer todo el desarrollo de los proyectos con recursos locales? Ahí van algunas razones que podrían justificar los motivos por los que el término offshore parece estar quemado.


1. Ahora todo se llama Cloud. Es prácticamente imposible encontrar algo en el sector TI que no tenga nada que ver con la nube. Tal vez suceda que conceptos como el offshoring hayan sido absorbidos por el concepto más general de Cloud y que, por tanto, los responsables de marketing de los grandes proveedores de TI prefieran consolidar todo bajo un único término para no confundir (o tal vez para hacerlo más) a los clientes.


2. Unas políticas industriales que ya no fomentan la deslocalización. Diseñar es de países occidentales dejando la producción para países en vías de Desarrollo. ¿Seguro? Son ya legión los países occidentales que, en la práctica, están volviendo a los conceptos previos a la híper-especialización y la deslocalización de las industrias; protegen al máximo las tareas de alto valor añadido del mismo modo que no hacen ascos, ni muchísimo menos, a las tareas de producción.

Personas haciendo outsourcing de su industriaPaíses como Brasil protegen de forma clara sus industrias imponiendo altos aranceles a los productos terminados, no así a las piezas que permitan generar producto terminado en sus fábricas nacionales. Por ejemplo, Foxconn -principal fabricante mundial de componentes electrónicos y ensamblador del iPhone e iPad entre otros- tiene una reducción de impuestos del Gobierno brasileño de hasta el 95% a cambio de producir sus componentes en el país. Incluso Apple se ha plegado a las imposiciones del gobierno Brasileño y produce sus productos por primera vez fuera de China. Lo mismo ocurre con las políticas industriales de otros muchos países como bien nos recuerda un buen colega y amigo.


3. Si dejas de hacer pronto dejarás de saber hacer. El escenario es el siguiente: los países occidentales se quedan únicamente con las tareas de análisis y diseño dejando el desarrollo de producto (la programación) para una factoría deslocalizada en Argentina o India, por ejemplo. Los responsables de la factoría remota no tardarán en aprender sobre el producto y en darse cuenta de que pueden hacerlo de forma integral por sus propios medios, máxime en algo tan poco ligado a lo tangible como un desarrollo de software.

A su vez, los profesionales de las empresas occidentales se alejarán cada vez más del producto y eso, en cierto modo, les hará perder la perspectiva real de las cosas. Esto último no es más que la aplicación a la tecnología del viejo refrán que nos recuerda que hay que ser cocinero antes que fraile. Es difícil ser buen analista de aplicaciones informáticas si no se ha sido antes [buen] programador. No es una verdad universal pero se cumple en un porcentaje elevado de casos.


4. Hay mano de obra local a buen precio. Probablemente debido a los puntos anteriores, los países occidentales ahora tienen disponible mano de obra local a mejor precio. Tal vez no en el centro de las grandes ciudades -tal vez también- pero sí en zonas menos industrializadas dentro de los países occidentales. Es el caso, por ejemplo, de Accenture en Málaga, Deloitte en Huesca o IBM en Salamanca. Con todo, posiblemente el coste por hora sigue siendo superior al del offshore pero se compensa en gran medida con los costes derivados de la deslocalización (problemas de idioma, diferencia horaria, dificultad para reuniones presenciales,...).


Es cloud pero está cercano
5. El éxito del modelo Cloud local. Las ofertas de Cloud están basadas, en gran medida, en las economías de escala y en ese contexto parece claro que cuanto mayor sea la economía de escala, mayores serán los beneficios. Parece lógico pensar, por tanto, que los proveedores de Cloud globales parten con ventaja. Sin embargo, la ubicación física del dato (su localización geográfica) se está convirtiendo en un valor clave y comienza a ser habitual la oferta de proveedores de Cloud no globales cuya mayor ventaja competitiva -cuando no la única- radica precisamente en que el dato está físicamente cerca, en datacenters ubicados en el mismo continente o incluso en el mismo país. Se da la paradoja de que se prima a un proveedor local en un modelo que está diseñado para proveedores globales.

¿Hay alguna razón más? ¿Sobra alguna?

www.tonsofit.com


RSS

Sistema abierto, ecosistema cerrado



RSS

Logo de Apple, Windows y Linux
Hablando de sistemas operativos y fabricantes de hardware, no es descubrir nada nuevo asegurar que en el mercado del PC hay dos visiones absolutamente antagónicas respecto al desarrollo del negocio.

Por un lado Windows y Linux y su ecosistema abierto en el que cualquier fabricante de hardware puede vender sus maquinas con el sistema operativo preinstalado. En este modelo, los dueños del sistema operativo no se posicionan, al menos no claramente, por unos u otros fabricantes de hardware.

Y por otro lado está el Mac de Apple en el que ningún fabricante puede diseñar maquinas para él, únicamente el propio Apple puede hacerlo. Esta visión responde a la obsesión de Apple de controlar todo el proceso, desde el diseño hasta el punto de venta pasando por la fabricación, el marketing e incluso el embalaje.

En pura lógica, atendiendo a criterios de razonamiento empresarial clásico, mas competidores trabajando en un mejor producto debería generar mayor innovación para los clientes. El hecho de que haya más mentes pensantes -empresas- trabajando en la evolución de un producto y la propia competencia entre ellas debería provocar una mayor innovación. Parece lógico.


¿Y en los móviles y tabletas?

Sin embargo, esa misma lógica no parece estar aplicándose al mercado de tablets smartphones.

Como es de esperar, Apple no ha modificado un ápice su política de diseñar y fabricar como un todo tanto el hardware como el software del iPhone e iPad. Ningún proveedor tiene acceso al proceso en ningún punto, desde el diseño del producto hasta el punto de venta. Incluso las operadoras tienen vetado manchar los aparatos con sus logotipos -únicamente puede aparecer la manzana- ni pueden personalizar los terminales con tonos o imágenes preestablecidos, tal y como hacen con cualquier otro fabricante.

¿Es la home de Microsoft o la de Nokia?Pero quienes sí parece que han realizado un viraje estratégico importante son Microsoft con Windows Phone y Google con Android.

Por un lado, Microsoft no tiene problemas en anunciar los teléfonos de Nokia en la home de su sitio web pese a que otros fabricantes como Samsung, LG o HTC también diseñan teléfonos para su Windows Phone. Microsoft y Nokia son (aún) empresas diferentes pero está claro que su acuerdo estratégico tiene dos consecuencias. Primero, que deja un poco apartados al resto de fabricantes de hardware y segundo que su fabricante estrella, Nokia, diseña los teléfonos de forma conjunta con los diseñadores y programadores del sistema operativo. Es decir, el mismo modelo que aplica Apple pero con dos empresas que mantienen una alianza en lugar de una única compañía.

Samsung y Android
Y Google hace exactamente lo mismo con Android. No es casualidad que la presentación mundial de Android 4 Ice Cream Sandwich se realizase en Hong Kong conjuntamente con su aliado estratégico Samsung. La alianza va incluso más allá ya que el teléfono que la propia Google comercializa en su web, el Nexus, es fabricado por Samsung.

Todo ello pese a que el ecosistema Android está enormemente poblado con otros fabricantes de gran tamaño como Sony Ericsson, HTC, LG, Huawei, ZTE, Acer o Motorola.


La innovación y la competencia

Los fabricantes de sistemas operativos para teléfonos móviles y tabletas parecen haber aceptado de facto la visión de Apple de que no puede conseguirse una gran experiencia de usuario si el software y hardware no se diseñan conjuntamente.

Apple lo lleva al límite haciendo todo el desarrollo de producto internamente al tiempo que Google y Microsoft lo hacen manteniendo alianzas estratégicas con un único proveedor, aún cuando permiten que otros formen parte del negocio.

Surgen algunas preguntas: ¿Fomenta más la innovación la competencia de fabricantes o es mejor trabajar en profundidad con uno solo? ¿En qué situación quedan fabricantes como HTC? ¿Acabarán estas estrategias alterando por contagio el mercado del PC?


Enlaces relacionados:

     › Dicen que estamos en la era post-PC
     › Apple, Google y Microsoft están de acuerdo en algo
     › Los SMS y las faltas de ortografía
     › Tecnología elitista en tiempos difíciles


www.tonsofit.com


RSS

Big data y las decisiones instintivas



RSS

Los trabajos relacionados con Big Data van a ser durante 2012, sin duda, algunos de los proyectos estrella en muchísimas compañías. Veremos casos de éxito de big data en proyectos para ubicar la posición exacta de generadores eólicos, el análisis y secuenciación de patrones genéticos para enfermedades concretas, la mejora de motores de todo tipo, predicciones meteorológicas mejoradas, optimización del tráfico en las ciudades, mejora de las ventas de productos en base al análisis del comportamiento de los clientes, optimización de redes de todo tipo,...

Para ello, los sistemas procesarán inmensas (realmente inmensas) bases con un número casi interminable de datos provenientes de diferentes sistemas y sensores. Por primera vez, la potencia de cálculo dejará de ser un freno en la tarea de obtener información partiendo de datos aparentemente disjuntos.

Big data permitirá obtener soluciones óptimas para problemas realmente complejos, algo que el cerebro humano lleva haciendo desde siempre pero de una forma muchísimo más eficiente.


Las decisiones instintivas 

El cerebro humano no dispone de la potencia de cálculo en bruto que tienen muchos de los sistemas informáticos actuales y, probablemente por eso o porque prefiere no malgastar esa potencia, ha aprendido a tomar atajos mediante decisiones instintivas.

Lo único que diferencia una decisión instintiva de una más razonada es la inmediatez pero su nivel de acierto rara vez tiene que ver con la suerte o la intuición (entendida ésta como capacidad paranormal). Tiene mucho más que ver con el profundo conocimiento del entorno por parte de quien toma la decisión aún cuando puede que parte de ese conocimiento esté por debajo del nivel de conciencia en el momento clave. Pongamos algunos ejemplos.

Imaginemos que nos plantean la siguiente pregunta: ¿qué ciudad tiene más habitantes Múnich o Düsseldorf? Probablemente, la mayor parte de las respuestas irán del lado de Múnich y acertarán. Pero la inmensa mayoría de las personas no saben que Múnich tiene 1,2 millones de habitantes frente a los 0,5 millones de Düsseldorf (yo lo acabo de comprobar en la Wikipedia).

Entonces, ¿ha sido suerte que la mayoría de las personas instintivamente respondan de forma correcta? En absoluto. El cerebro, a gran velocidad y por debajo del nivel de consciencia ha decidido que ciudad aparece más a menudo en los telediarios, revistas, periódicos, conversaciones de amigos,... y en base a ello ha determinado que la más relevante, la que tiene más notoriedad, debe ser, necesariamente, la más grande. Es decir, el cerebro ataja.

Otro sencillo ejemplo. Los matemáticos (mis colegas de BCAM, por ejemplo) podrían resolver de forma muy rápida y sencilla el cálculo necesario para indicar el lugar exacto donde situarse para coger el frisbee al vuelo. Solo hay que calcular la fuerza de salida, el viento, la gravedad, el momento del giro, la trayectoria, peso e inclinación del disco, la pendiente del suelo si la hay, la altura del receptor,...

Vamos que cualquier persona, incluso con un coeficiente de inteligencia por debajo del umbral de la normalidad, puede combinar todos esos datos en ecuaciones diferenciales, integrales,... y todo ello en una milésima de segundo. Es más, puede hacerlo incluso algún perro si se le entrena adecuadamente.

Pero, un perro no sabe hacer integrales, ¿no? Entonces, ¿como lo hace?

Nuevamente, el cerebro ataja. La decisión inconsciente en este caso es tan simple como mantener constante el ángulo que forma la línea recta entre nuestro ojo y el disco con respecto a la horizontal. Habrá que desplazarse hacia delante o hacia atrás de forma que ese ángulo se mantenga constante a medida que el disco se aproxima. Algo tan simple sustituye a un inmenso conjunto de ecuaciones basado en una legión de datos tomados en tiempo real.

Si la evolución no hubiera inventado estos atajos, probablemente nuestro cerebro se volvería absolutamente loco teniendo que gestionar millones y millones de datos constantemente para tomar decisiones relevantes e incluso a veces irrelevantes.


Entonces, ¿qué hay del big data?

Es verdad que no se pueden sacar conclusiones de lo que no se mide pero también es cierto que medir más de lo estrictamente necesario no implica más información en la toma de decisiones. Es solo un gasto inútil de recursos. La cuestión es cómo encontrar el punto a partir del cual ya no hay que seguir midiendo (la medición masiva es la base del big data).

Puede que ese punto esté muy lejos en decisiones que tienen mucho que ver con la ciencia y la ingeniería y menos con las ramas sociales y las humanidades. Cuesta decirle a un investigador en biotecnología que debe  parar de tomar datos. Pero puede que ese punto no esté tan lejos si se trata de decisiones en las que intervienen factores asociados, por ejemplo, con el comportamiento de las personas.

Puede que tomar un mayor número de datos en forma micro-movimientos terrestres y otras múltiples variables sea la diferencia entre prevenir o no prevenir un terremoto. Puede también que analizar con mayor precisión todas las variables que intervienen en el movimiento de un generador eólico sea la diferencia entre una mayor o menor eficiencia energética. Pero es discutible que poner más sensores de humedad en un jardín mejore la eficiencia en el uso del agua de riego. Esto se hace especialmente evidente cuando se analizan algunos proyectos de Smart Cities en los que, probablemente, se superan con creces los niveles de sensorización necesarios para la correcta toma de decisiones. En esos casos, por tanto, se malgastan recursos.

En el fondo, se trata de ver hasta que punto es real la percepción Googleana de la realidad por la que todo lo que ocurre puede ser modelado con un algoritmo matemático (eso es en el fondo su buscador).


Aún con todo, uno no deja de sorprenderse con los increíbles proyectos que están llevando a cabo IBM con su plataforma Netezza o HP con Autonomy. Para cualquiera a quien le guste la tecnología, simplemente alucinantes, con atajos o sin ellos. Supongo que primero haremos las cosas en base a fuerza bruta de cálculo y después iremos aprendiendo a atajar.


Enlaces relacionados:


     › Decisiones Instintivas. Gerd Gigerenzer. Editorial Ariel, 2008
     › Tons of IT: Hacia una ciudad amable


www.tonsofit.com


RSS

Los contenidos de Tons of IT están sujetos a licencia Creative Commons Reconocimiento 3.0 salvo donde se indique lo contrario.