¿Adiós al email?



RSS

Hace unos días un amigo me enviaba información sobre una conferencia organizada por la asociación de antiguos alumnos de la Universidad de Navarra con el sugerente título de El Talking Manager: menos e-mails y más conversaciones.

Es cierto, el email descontextualiza las cosas; tanto que no nos es ajeno el que un mensaje en absoluto malintencionado acabe creando problemas en las compañías. Y tiene aún más problemas ya que el uso del email, cuando es el medio de comunicación prioritario, también tiene una capacidad enorme para reducir la empatía dentro de los grupos de trabajo o entre un jefe y sus colaboradores. Y la empatía es la base de la buena relación que, a su vez, es una de las bases del trabajo en equipo.


Si no hay empatía todo se complica

A nivel fisiológico, la empatía está basada, entre otras cosas, en las neuronas espejo (el término es de Giacomo Rizzolatti), un tipo específico de neuronas que permiten que literalmente podamos ponernos en la piel de otro. Estas neuronas provocan activaciones cerebrales idénticas tanto si se siente algo (frío, calor, hambre, sueño, dolor, amor, angustia, sed...) como si se está observando a alguien que lo siente.

Y no solo ocurre con las emociones, ocurre también con los movimientos ya que el cerebro de quien se mueve y el de quien observa el movimiento se activan de la misma forma. Incluso hay experimentos que demuestran que la activación cerebral de dos pianistas, uno tocando el piano y otro simplemente imaginando que lo toca, son idénticas.

Los neurólogos especulan con que esta capacidad del cerebro de percibir lo que otro siente o hace podría ser una vía que nos ha regalado la evolución para acelerar la adquisición de conocimiento. No es preciso esperar a que nadie nos cuente las cosas porque podemos aprenderlas simplemente con verlas en otros.

Con los mensajes de correo nos perdemos la imagen de las cosas, como mucho tenemos una representación simbólica, con lo que apenas hay activaciones de las neuronas espejo. Esto lleva a una merma importante de empatía y transferencia de conocimiento lo que, en última instancia, reduce el trabajo en equipo. El contacto humano, por tanto, parece fundamental.

Alguien avezado pensará que la solución es la videoconferencia. Pero no, porque la videoconferencia, aún cuando se trate de sistemas avanzados como la Telepresencia de Cisco, no ha conseguido aún que esa capacidad de informar de las neuronas espejo se desarrolle en su totalidad. Está comprobado que no ocurre con la misma intensidad si se está en la escena que si se está detrás de una cámara. Es algo parecido a la diferencia entre ver algo en la televisión o vivirlo en directo (obsérvese el cambio de verbo, de ver a vivir).


Entonces, ¿solo vale la reunión presencial?

Pues no. Este tipo de discusiones ni son nuevas ni han sido originadas por el reciente uso de medios tecnológicos. En sus inicios, Sócrates sostenía que «la tecnología alfabética alteraba la mente de una persona y no para mejor». Esto le llevaba a pensar que el conocimiento debía transferirse de forma oral y no escrita, y a poder ser en forma de poesía para que pudiera ser cantada públicamente.

Finalmente, asediado intelectualmente por Platón, tuvo que reconocer que «el pensamiento filosófico y analítico solo sería posible gracias al efecto de la escritura sobre los procesos mentales». Es decir, daba por buena la idea de que la escritura, que permitía diferir los procesos de exposición y captación de conocimiento, aceleraba la evolución de la humanidad.

Hasta ese momento, el conocimiento avanzaba al ritmo que permitía el hecho de que toda la sabiduría debía transmitirse de forma oral y, por tanto, necesariamente de forma presencial. El medio era, por tanto, síncrono ya que emisor y receptor debían estar en el mismo lugar a la misma hora, algo que la escritura de cartas tradicional y sobre todo los medios tecnológicos recientes (lo de recientes es en términos evolutivos) como el email han mejorado de una forma prodigiosa.

Parece que no hemos avanzado mucho desde los tiempos de Sócrates (y han pasado casi 2.500 años desde su nacimiento) teniendo en cuenta que hay quien sigue promoviendo la transmisión de conocimiento oral como vía prioritaria.


Como casi siempre, en el medio está la virtud

Hace unos meses, durante una visita a la sala EmO de Microsoft, surgió una conversación similar y me contaron las 'normas' internas de la compañía. Habían fijado un día concreto de la semana para realizar todas las reuniones internas, todas aquellas que no tuvieran que ver con los clientes. De esta forma optimizaban su agenda a nivel individual a la vez que, como colectivo, podían realizar reuniones internas con mayor facilidad. Hasta la puesta en marcha de la iniciativa les era casi imposible realizar una reunión interna (y estas también son -muy- importantes) con varias personas porque siempre coincidía con alguna reunión en cliente de alguno de los miembros. Una idea muy simple con grandes resultados.

Algo parecido debería ocurrir con el email. Su uso es bueno ya que permite comunicar algo aún cuando el destinatario no esté disponible en ese instante, es decir, no hace falta que la comunicación sea síncrona lo que sin duda permite optimizar el tiempo. Pero su abuso puede llevar a colapsar las agendas o a intentar dirigir desde el Outlook.

El uso del email es bueno, muy bueno, pero no debe eclipsar la comunicación oral. Ni tampoco al revés. Solo hace falta un poco de sentido común y acordar unas normas básicas de uso. Estaría bien conocer las iniciativas que implantan otras empresas para optimizar el tiempo de las reuniones y asegurar el uso eficiente de sus comunicaciones. Habrá que ponerse manos a la obra porque algo de razón si tiene el Talking Manager.

Para terminar, decir que los tecnólogos somos tan fashion que nos parece de lo más normal que unos quieran eliminar el email con el objetivo de hacer más reuniones presenciales y otros quieran eliminarlo en favor de medios aún más digitales como las redes sociales o blogs, pero de estos últimos hablaremos otro día.



Enlaces relacionados:

     › Nicholas Carr, 2010. Superficiales: ¿Qué está haciendo Internet con nuestras mentes?
     › Matt Ridley, 2011. El optimista racional: ¿Tiene límites la capacidad de progreso de la especie humana?
     › Alvaro González Alorda, 2011. El Talking Manager: Cómo dirigir personas a través de conversaciones


www.tonsofit.com


RSS

¿Y si los brokers de Bolsa fueran máquinas?



RSS

Hace unos días, durante una sobremesa con dos colegas y amigos de IBM, uno de ellos planteó la cuestión de qué pasaría si Watson, el ordenador más inteligente y mejor informado jamás diseñado, pudiera trabajar como broker en la nómina de Goldman Sachs, Morgan Stanley o cualquier otro grupo de inversión.

Desde el principio fuimos dos contra uno defendiendo la idea de que más información, mayor capacidad de análisis y menor tiempo de respuesta no eran necesariamente garantía de éxito en la bolsa. Ahí van las tres razones que en ese momento no supimos justificar.


La teoría de los juegos, yo te doy esperando que tú me des

Imaginemos este juego y sus sencillas reglas:
María y Pedro tienen 10 euros cada uno
Si María le da a Pedro una parte de su dinero, Pedro recibirá el doble de lo que María le dé.
A su vez, Pedro podrá 'devolver' a María la cantidad que considere apropiada por su generosidad, incluido 0 euros.

Un razonamiento lógico (tal y como piensa una máquina... o un ingeniero al finalizar sus estudios) haría que María le dé sus 10 euros a Pedro con lo que Pedro pasaría a tener 10 + (10+10) = 30 € y María 0 €. Posteriormente, ambos compartirían el dinero a razón de 15 euros cada uno. Ese sería el intercambio más óptimo, el que maximiza el beneficio.

Pero las personas rara vez pensamos así ya que jugamos con la posibilidad de que María le dé todo su dinero a Pedro y éste opte posteriormente por quedarse con todo. Juegos como éste -de la confianza- u otros como el Dilema del Prisionero hacen que la forma de pensar de una persona y la de una máquina sean, hoy por hoy, radicalmente diferentes. Y la bolsa, en definitiva, es un gran juego.


Si sabes que va a bajar, ya habrá bajado

En un mercado perfecto, todos los brokers tienen la misma información; no existe la información privilegiada. En ese contexto, si un analista tiene información que le sugiere comprar o vender a gran escala, probablemente no podrá hacerlo porque ya habrá ocurrido. Tan pronto como el mercado sepa que una acción es deseada o repudiada alterará su valor de forma que será más caro comprarla o venderla.
Ese ajuste automático del mercado hace que cuando un broker sabe (con certeza, más allá de la intuición) que algo va a pasar, realmente ya haya pasado.

De hecho, los grandes cambios en los mercados, donde se producen las grandes ganancias y pérdidas, ocurren habitualmente ante hechos absolutamente inesperados e impredecibles. Perder los 10 mejores días origina unos beneficios promedio un 50,8% inferiores. Y a su vez, evitar los 10 peores días genera unos beneficios un 150,4% superiores a las estrategias pasivas.

El gráfico adjunto muestra la evolución de los beneficios generados por las empresas del S&P500 desde su inicio (más de 50 años) y la misma curva descontando únicamente los diez días de más actividad. Estos diez días están asociados a sucesos como la caída del muro de Berlín, el 11-S, el tsunami en Japón,... en general eventos impredecibles, inesperados y de gran repercusión.

Y no parece sensato pensar que una máquina tenga ventaja a la hora de obtener esa información. De hecho, si Watson supiese de antemano que el WTC iba a ser atacado, seguro que alguien tendría la genial idea de llevar el equipo entero (incluido tal vez algún técnico de IBM) a unas dulces vacaciones en Guantánamo. Obviamente, eso no es real.


Hasta un mono invierte mejor que muchos brokers

Los movimientos bursátiles en un mercado eficiente son, en gran medida, predecibles. Solo cuando los mercados no son eficientes, por información privilegiada por ejemplo, su proyección se convierte en impredecible. La idea es de Burton Malkiel quien teorizó sobre la idea de comparar la capacidad inversora de los mejores brokers con la de un mono lanzando dardos a las páginas de un diario financiero (y eligiendo las inversiones en base a ello).

Wall Street Journal quiso verificar la teoría de Malkiel y en el periodo 1988-1998 invitó a los mejores brokers a hacer elecciones de acciones del NYSE, AMEX y NASDAQ. Cada mes cuatro brokers confeccionaban su cartera para los siguientes seis meses. Al final del periodo los dos mejores continuaban y los otros dos eran reemplazados. Con ello, se garantizaba una cierta selección natural que, a primera vista, implicaba una mejora continua.

Al finales de 1998 se presentaron los resultados del estudio. Durante los diez años se habían realizado 100 competiciones y los profesionales ganaron en 61 de ellas. Viéndolo al revés, los monos ganaron en 39 ocasiones, lo que no está nada mal teniendo en cuenta que eran inversiones absolutamente aleatorias.

Y la cosa fue aún peor cuando se comparó a los profesionales con el Dow Jones Industrial Average ya que prácticamente empataron con el valor medio del mercado.

En la mayor parte de las ocasiones en las que ganaron los brokers las razones se debían más a su capacidad como lobby para influir en el mercado (en las acciones por las que previamente habían apostado) o en su capacidad para obtener información privilegiada que en su pericia para analizar los mercados financieros. Y es cuestionable que una máquina, por muy inteligente que sea, tenga más capacidad que una persona para aprovechar esas imperfecciones (la mayor parte de ellas ilegales) de los mercados.


Resumiendo

El 15 de diciembre de 2003 era detenido Sadam Husein. La noticia, de gran importancia a nivel político y económico teniendo en cuenta que era el ex-mandatario de uno de los mayores productores de petróleo, provocó que los Bonos del Tesoro (valores refugio) estuvieran alternando durante todo el día entre subidas y bajadas.

A las 13.01 Bloomberg News decía lo siguiente: «Suben los bonos del Tesoro de Estados Unidos; es posible que la captura de Husein no frene el terrorismo». Apenas media hora después el mismo medio decía «caen los bonos de Tesoro de Estados Unidos; la captura de Husein aumenta el atractivo de los activos de riesgo». La captura de Sadam era a la vez una cosa y la contraria, algo habitual en el mundo financiero, capaz de explicar cualquier cosa, siempre a posteriori, sin tan siquiera despeinarse.

«Voy a repetir lo que sigue hasta que me quede afónico: lo que determina el sino de una teoría en la ciencia social es el contagio, no su validez». Nassim Taleb dixit en referencia a la Teoría de la cartera de valores moderna, aunque bien pensado es válido en muchos otros campos.

Eso es lo que en definitiva hace que la bolsa no sea, ni de lejos, una ciencia exacta. Pobre Watson...


Enlaces relacionados:

     › Javier Estrada (IESE) 2007. Black Swans and Market Timing: How Not to Generate Alpha.
     › Nassim Taleb 2008. El cisne negro: El impacto de lo altamente improbable.





RSS

La fashion week tecnológica



RSS

Empecemos con algunas predicciones erróneas:

ú Creo que existe mercado para unos cinco ordenadores en todo el mundo. Thomas Watson, presidente de IBM, en 1943.

ú Le veo muy poco potencial comercial a Internet en los próximos diez años. Bill Gates, cofundador de Microsoft, en 1994

ú No hay ninguna razón por la que una persona normal pueda necesitar una computadora en su casa. Kenneth Olsen, presidente y cofundador de Digital Equipment Corporation, en 1977.

ú El problema de los virus es pasajero y durará un par de años. John McAfee, fundador de McAfee, en 1988.

ú ¿Cómo piensas hacer negocio con un buscador? Guy Kawasaki, rechazando el puesto de CEO en Yahoo, en 1996.

ú Los virus informáticos son una leyenda urbana. Peter Norton, creador de Norton Antivirus, actualmente integrado en Symantec, en 1988.

ú OS/2 está destinado a ser el más importante sistema operativo de todos los tiempos. Bill Gates en 1987.

ú No sé cómo será el lenguaje de programación del año 2000, pero sé que se llamará FortranTony Hoare, padre del primer compilador de lenguajes de programación, en 1982.

ú Si pero, ¿para qué sirve? Robert Lloyd, ingeniero de la División de Sistemas de Computación Avanzados de IBM en referencia al microchip, en 1968.


Y es que, como diría Yogi Berra (algunas de sus citas son geniales y altamente recomendables), es difícil hacer predicciones, particularmente sobre el futuro porque el futuro no es lo que solía ser.

Los tecnólogos no son precisamente el mejor ejemplo de proyección. Es posible que exista una razón lógica para que así sea ya que proyectar significa poner en el futuro la tecnología del presente y los grandes cambios de ciclo se dan con tecnología que aún no se ha inventado ni concebido, luego no se puede proyectar. Para hacer una buena predicción, el conocimiento de la tecnología actual es algo necesario pero no suficiente. Hace falta algo más: imaginación.


Predicciones no tecnológicas realizadas por tecnólogos

Y cuando los tecnólogos hacen predicciones de carácter social, algo muy de moda últimamente, el nivel de error suele crecer exponencialmente respecto a la distancia con la tecnología. Un claro ejemplo de ello es la idea de la aldea global.

Durante la etapa 1995-2005 se hizo popular el concepto de aldea global como una nueva forma de vida más libre e independiente. Los demógrafos, animados por los tecnólogos, comenzaron a vaticinar que conforme las personas comenzaran a telecomunicarse se vaciarían las ciudades en favor de las afueras o incluso del medio rural.

La realidad es que la predicción no ha podido ser más errónea ya que, lejos de producirse un retorno a lo rural, desde 1995 hasta hoy la población se ha concentrado en las ciudades a un ritmo superior al uno por ciento al año. Y la proyección de la ONU (que como buena predicción también puede estar equivocada) es que en el año 2025 habrá cinco mil millones de personas viviendo en las ciudades y en el 2050 el 90% de la población mundial vivirá en mega-urbes.

Existirán ocho ciudades por encima de los veinte millones de habitantes: Tokio, Bombay, Nueva Delhi, Calcuta, Dhaka, Sao Paolo, México DF y Nueva York. Las poblaciones rurales se desplomarán lo que, por cierto, será una estupenda noticia desde el punto de vista ecológico ya que el noventa por ciento de la población solo ocupará el tres por ciento de la superficie de la Tierra, ya descontados los océanos.

O sea, que los estudiosos de la demografía, enormemente mal aconsejados por los tecnólogos, no han dado ni una con lo de la aldea global.

Es cierto que la conexión universal a Internet ha permitido situar factorías de software y de otros intangibles en lugares 'tecnológicamente remotos'. Incluso ha permitido nuevas formas de hacer las cosas como el offshoring o ahora el cloud computing. Pero la idea original de persona libre, remota y conectada está muy lejos de ser cierta y avanzando en dirección opuesta.


El CIO como analista de moda

Es posible que la razón por la que a los tecnólogos les gusta tanto predecir el futuro tal vez se encuentre en el propio mercado tecnológico. Durante el Oracle OpenWorld de 2008, su fundador y CEO, Larry Ellison dijo algo con lo que es muy difícil no estar de acuerdo (la traducción es libre):

Lo más interesante de cloud computing es que hemos definido el término para incluir todo lo que ya hacemos. Viendo los anuncios tecnológicos, no soy capaz de pensar en nada que no sea cloud computing. La industria informática es la única industria que es más fashion que la industria de la moda femenina. Tal vez soy un idiota, pero no tengo ni idea de lo que están hablando.

Puede ser que la mejor cualidad de un director de tecnología sea la de detectar cual de las propuestas tecnológicas de moda aportan realmente valor y cuales son simplemente fashion trends disfrazadas de tecnología. A las primeras habrá que prestarles atención; a las segundas, simplemente esperar a que amaine el chaparrón mediático y el mercado ponga de moda alguna otra idea.

Estas nuevas ideas (tanto las que aportan valor como las que no) llegan al mercado con una enorme contundencia. Los visionarios lo ven tan claro que no entienden como se ha podido vivir hasta entonces sin ellas. Un pequeño ejemplo, ¿alguien se acuerda ya de SOA?

Por cierto, las propuestas actuales parecen ser lo que gira en torno a la movilidad, la nube y las redes sociales. En las tres hay mucho de verdad y, probablemente, también algo de fashion.

www.tonsofit.com


Bola extra: La mejor forma de predecir el futuro es inventarlo. La frase es de Alan Kay.


RSS

Dominados por la informática doméstica



RSS

Hace no demasiado tiempo el mercado de TI empresarial se planteaba si estaba siendo absorbido por las tendencias del entorno doméstico, algo que algunos denominaron consumerización de la informática corporativa.

Y una rápida mirada a la prensa especializada en tecnología evidencia que la anunciada consumerización es ya una realidad.

La tecnología nacida en el entorno doméstico y las redes sociales han eclipsado por completo a cualquier otra tecnología empresarial. Por poner un ejemplo, la noticia de que IBM dispone de un prototipo que emula el funcionamiento de la sinapsis cerebral, algo absolutamente extraordinario desde todo punto de vista, compartía espacio, tamaño y tipografía con cambios menores en la interfaz de usuario de sitios web como Facebook o Twitter.

Y no es solo que la interfaz de usuario de Facebook tenga menos importancia que la producción de un chip que es capaz de emular el funcionamiento biológico del cerebro humano (por supuesto, tiene muchísima menos importancia), es que incluso es cuestionable que Facebook sea una empresa tecnológica.


¿Son las empresas sociales realmente empresas tecnológicas?

Facebook es una gran empresa desde el punto de vista social e incluso antropológico. Ha sido capaz de dar con la clave -y los algoritmos- de la forma a la que a los humanos nos gusta relacionarnos y eso tiene un mérito inmenso. Sus datacenters tienen también una gran técnica para mantener un volumen colosal de usuarios con un tiempo de respuesta reducidísimo. Pero como tecnología, Facebook no destaca especialmente; cualquier grupo de estudiantes de grado podría hacer la tecnología del núcleo de Facebook en unas pocas semanas de trabajo (obviamente, sin incluir su enorme ecosistema; únicamente el núcleo, incluyendo el muro, los perfiles, el sistema de solicitud de amistad y el sistema de publicación).

Y lo mismo podría decirse de otras empresas 'tecnológicas' de moda como Flickr, Twitter, Linkedin, Instagram, Foursquare,... En todas ellas se pone de manifiesto que la barrera de entrada de sus competidores no es la tecnología sino su base de usuarios o, como mucho, sus 'algoritmos sociales'.

Volviendo nuevamente a la prensa especializada en tecnología, resulta sorprendente que estas nuevas empresas pseudo-tecnológicas tengan más relevancia mediática (en número de titulares) que IBM, HP, Microsoft, Oracle, Google (excluyendo las de Google+), SAP,...

Todas estas empresas sociales han ayudado a transformar el mundo en muchos aspectos como probablemente nunca antes. Pero decir que Twitter, Linkedin o Facebook son empresas tecnológicas es tanto como decir que los periódicos y las cadenas de televisión también lo son porque mantienen una web donde publican sus noticias y vídeos. Estas últimas tienen presencia en Internet pero su actividad clave está alrededor de las noticias y la comunicación. Lo mismo aplica para la mayor parte de las empresas sociales ya que, aunque están basadas al cien por cien en Internet, el corazón de su negocio no es realmente la tecnología sino las interacciones sociales y la antropología.


Las nuevas generaciones

Se corre el riesgo de que la siguiente generación de profesionales de TI, probablemente la generación de profesionales mejor preparada de la historia por ser la primera integrada por verdaderos nativos digitales, crea que los sistemas de información que mantienen el mundo están basados en redes sociales y las aplicaciones que se construyen a su alrededor.

Tendrán que esforzarse mucho para demostrar que es así -y probablemente lo harán porque tienen la visión necesaria para hacerlo- porque la realidad es que los sistemas de información que mantienen los bancos, las empresas de telecomunicaciones, las compañías de seguros, las de logística, la administración, transporte, manufactura,... poco o nada tienen que ver con las redes sociales.

Obviamente, las empresas usan las redes sociales como herramientas de marketing, promoción, fidelización, comunicación y otras mil cosas más, pero se está aún muy lejos de que los sistemas de información internos de las compañías se socialicen; el core de estos sistemas está, hoy por hoy, completamente al margen de todo eso.

Por terminar con algo positivo, la dominación de la informática doméstica también tiene su lado bueno. La imagen del profesional de TI ha evolucionado desde la persona a la que nadie comprende por utilizar un ininteligible dialecto propio (algo que, tal y como ocurre con la letra de los médicos, denota una enorme endogamia) a ser una persona mucho más normal, quizá un poco geek a veces. Y eso es bueno... creo.


www.tonsofit.com


RSS

Haciendo open data en modo low cost



RSS

Mil seiscientos millones de euros y cinco mil puestos de trabajo.

Esa es la cifra de volumen de negocio y empleo que, según el Proyecto Aporta, generó durante 2010 el sector infomediario, entendiendo como tal al conjunto de empresas que generan aplicaciones, productos y/o servicios de valor añadido destinados a terceros a partir de la información del Sector Público.

Es decir, empresas que basan su modelo de negocio en información proveniente de modelos open data, de la apertura de datos públicos regulada por la Ley 37/2007.


Situación actual de los planes open data 

Hay una enorme cantidad de planes para abrir los datos públicos, casi tantos como Administraciones, y en muchos de los casos el modelo se basa en la creación de un portal adhoc que sirva como repositorio de los datos públicos en el ámbito de actuación de la Administración que lo pone en marcha.

Se trata de construir una aplicación -un portal de open data- que recolecte periódicamente la información desde el origen y la publique para su consumo por ciudadanos y empresas. Es una especie de agregador de noticias pero con información pública.

En este modelo la información no se consume directamente de la fuente primaria -es una copia de la información original- lo que, sin duda, no incide muy positivamente en la calidad del dato. Además, el trasiego de datos genera costes extras a la Administración, tanto para el paso periódico de datos en sí como para la adaptación de las interfaces cada vez que cambian las aplicaciones o bases de datos de origen. Eso, en el mejor de los casos en el que hay una fuerte coordinación interna en la Administración y el responsable del portal de open data es informado de que los datos de origen han cambiado -en calidad o formato-.


Un nuevo modelo low cost de dato abierto

La tecnología nos brinda la capacidad de hacer aplicaciones internas -de intranet- que a la vez pueden tener una cierta capacidad de visibilidad externa en Internet. ¿Y si se diseñasen las aplicaciones de la Administración de forma que expusieran los datos públicos por sí mismas? Con ese modelo, no harían falta los portales de open data porque todas las aplicaciones internas de la Administración expondrían su información (obviamente, solo la que sea pública).

De hecho, bien pensado, los servicios web (o el mecanismo que se determine para compartir la información) podrían reutilizarse de la base de los que la Administración ya está obligada a implementar para la interoperabilidad con otras Administraciones, siempre con las debidas cautelas de protección de la información, como es lógico.

Se obtendrían dos ventajas muy importantes.

  • Las administraciones públicas harían lo que Google denomina dog fooding, esto es, comerse su propia comida para perros. Si el dato no tiene utilidad para el consumo interno de la propia Administración, bien por el dato en sí o bien por el formato en el que se sirve, es más que discutible que el dato tenga validez para terceros.

    Hace unos días releía un interesante artículo de un colega que decía, aunque en otro contexto, lo siguiente: cuando decides dejar de hacer, y dedicarte sólo a pensar cómo se hacen las cosas, pronto descubres que la mejor forma de pensar es haciendo y si olvidas cómo se hace, pronto olvidas cómo se piensa. Si quien sirve el dato no es a su vez consumidor es enormemente complejo que lo sirva en un formato adecuado, simplemente porque no se sufrirá a sí mismo. De hecho, no cuesta demasiado encontrar portales públicos de open data con datasets que parecen estar pensados únicamente para hacer ruido mediático y llenar el portal y no para ser reutilizados.


  • Aumentaría la eficiencia y la calidad del dato ya que no habría copias de datos a terceros portales. El dato vendría en tiempo real de la aplicación interna de gestión por lo que, por pura necesidad de la Administración, el dato sería siempre cierto y el modo de generación sería el más eficiente posible.

    Este punto es especialmente importante ya que cuando los presupuestos para el desarrollo y mantenimiento de aplicaciones se recortan es probable que lo primero que se caiga sean las aplicaciones que no son core para el funcionamiento interno de la Administración. Las aplicaciones de open data estarán en el punto de mira para el recorte lo que provocará una espiral de desconfianza: ninguna empresa infomediaria en su sano juicio diseñará un modelo de negocio sobre información que podrá estar o no estar disponible de forma discrecional.

    Sin embargo, si la aplicación interna de gestión y la de open data son la misma no habrá presupuesto extra para su mantenimiento. El dato siempre estará disponible y al día sin coste adicional.



El objetivo del open data

La Administración debería centrarse mucho más en compartir toda la información pública disponible (tiene mucha en cantidad y calidad) y no tanto en la creación de portales para su publicación. Fundamentalmente, porque lo relevante es abrir cuanta más información mejor y no que ésta sea publicada en el portal de tal o cual Administración.

Nadie más que la Administración puede hacer pública su información pública (obvio) pero cualquiera puede hacer -incluso los propios infomediarios- portales de integración. Es más, Google -y otros- demuestran una vez tras otra que son mejores agregadores de información que la más eficiente de las Administraciones que pueda imaginarse.

Entonces, ¿por qué empezar la casa por el tejado anunciando portales de open data a bombo y platillo?

www.tonsofit.com


RSS

Las formas de pago que vienen



RSS

Eran legión quienes durante la burbuja de las punto com, a principios de siglo, pregonaban el final del dinero tal y como lo conocemos, la muerte de las tarjetas de crédito tal y como las entendemos hoy o incluso la desaparición de Visa o Mastercard en favor de nuevos actores como PayPal.

Todo sería digital, totalmente digital y los nuevos tiempos nos traerían nuevas formas de ver el mundo. Un nuevo mundo -Internet- en el que parecía que las tarjetas de crédito y el dinero tradicional no encajaban.


El dinero y el conservadurismo

El dinero no es metal, es confianza impresa*. Existen muy pocas cosas más cobardes y conservadoras que el dinero porque a las personas, por diseño genético, no les gusta el cambio y menos aún si lo que cambia es algo que incide en su situación económica y, por tanto, afecta a su bienestar presente o futuro.

Cuando Bank of America lanzó las tarjetas de crédito en la década de los sesenta los políticos e intelectuales de todo signo y condición las tildaron de poco solidas e inseguras. La BankAmericard permitía a los ciudadanos tomar prestado dinero de ganancias futuras -crédito-, al instante, en cualquier lugar del mundo y únicamente con un trozo de plástico, algo que algunos creían que llevaría al colapso financiero.

Hoy sabemos que la confianza en algo o alguien está directamente relacionado con la cantidad de oxitocina -una hormona mucho más conocida por otra de sus funciones- que nuestro cerebro es capaz de sintetizar y poner en el torrente sanguíneo. Hay experimentos que demuestran que las personas se vuelven más confiadas, incluso irracionalmente confiadas, cuando inhalan esta hormona.

A la banca le ha costado mucho tiempo, dinero y esfuerzo generar en sus clientes la suficiente oxitocina como para convencerles de que el pago mediante tarjeta de crédito era seguro. Han sido muchos años de asumir fraudes con tal de no aparecer en las portadas de los periódicos.

Y en ese contexto, la explosión de Internet se vio como una descomunal amenaza, un nuevo escenario para el que las tarjetas de crédito no estaban preparadas. Surgieron conceptos como el ciberdinero, los intentos de lanzar monedas virtuales -algo así como monedas neutras de Internet-, los métodos de pago como PayPal o más recientemente los Facebook Credits.

Pero todos ellos se han topado siempre con el mismo escollo: en un tiempo en el que el dinero no representa reservas de oro sino simplemente confianza, todos esos medios de pago encuentran que su aceptación masiva se ve frenada por su falta de seguridad. Y da igual que su falta de seguridad sea real o solo percibida, las dos apalean a la confianza que es la base del dinero.


Compañías de tecnología y financieras uniendo fuerzas

Pero por mucho chip EMV que se ponga en los plásticos, algo de cierto había en lo que nos contaban de que las tarjetas de crédito no estaban preparadas para la nueva era. Y eso lo han sabido leer muy bien algunas empresas que han corrido para tomar la iniciativa en el pago mediante NFC.

El teléfono móvil con soporte para NFC será, probablemente, la base de los medios de pago de los próximos años. Podremos (podemos ya de hecho) pagar con el móvil, simplemente acercándolo al lector y tecleando una clave en el propio teléfono. Parece que tras la cámara de fotos, la PDA, la agenda, el GPS,... el teléfono móvil va camino de canibalizar un nuevo gadget: la tarjeta de crédito.

La unión de Google, Mastercard y Citi para conformar Google Wallet ha sido la primera acción coordinada en torno a la tecnología NFC pero no será la última. Hace falta mucha tecnología e innovación en un sector que empieza a mostrar dinamismo -en este caso eso lo aporta Google- pero donde a la vez sigue siendo fundamental mantener la confianza -eso lo aportan Mastercard y Citi-. Paulatinamente irán entrando más bancos, más empresas tecnológicas e incluso compañías de telecomunicaciones. Y tras ellas -o a la vez- vendrán los merchants como Coca-Cola que ya permite el pago mediante NFC en miles de sus máquinas o Renfe que ya ha habilitado 300 tornos con NFC para el pago en billetes de Cercanías.

Basta echar un vistazo a la lista de miembros del NFC Forum (Visa, Mastercard, American Express, Microsoft, Nokia, Samsung, Sony, LG, Google, Intel, Motorola, Barclays, RIM..., por cierto, sorprende no ver a Apple) para darse cuenta de que esta tecnología ha venido para quedarse.

Con un poco de fortuna en la puesta en marcha, se trata del intento definitivo de conceptos fracasados o con escaso éxito como el monedero digital, las tarjetas para el transporte público o los dispositivos prepago de las máquinas de vending, al tiempo que potenciará la adaptación tecnológica de la tarjeta de crédito tradicional. Incluso hay quienes exploran un sinfín de nuevas posibilidades como la sustitución de las llaves (y las smartcards) para la apertura de puertas o su uso en procesos de firma electrónica. Tal vez incluso veamos cómo pasa por encima de la aberración tecnológica que supone el uso de certificados digitales de usuario.

Parece que finalmente los agoreros de la burbuja punto com tenían algo de razón. Algo si va a cambiar: no tendremos que llevar una tarjeta de crédito, bastará con el teléfono móvil. El tiempo dirá si son capaces de hacernos generar la suficiente oxitocina como para confiar en el móvil todo lo que ahora confiamos en nuestro pequeño trocito de plástico.


www.tonsofit.com

* Niall FergusonEl triunfo del dinero.


RSS

Crónica de un ataque



RSS

Desde hace ya algún tiempo, cada vez que leo sobre un ataque a un sitio web pienso en lo que deben estar pensando y sintiendo sus responsables.

Ahora, tras vivirlo en primera persona, creo que lo sé y hay tres reflexiones que me gustaría compartir.


1ª. ¿Cuánto cuesta un ataque?

Seguramente habrá quien piense que soportar un cíber-ataque por denegación de servicio basado en fuerza bruta resulta inocuo económicamente, pero nada más lejos de la realidad.

En primer lugar hay que valorar los costes energéticos. Hay una relación directa entre el consumo energético de los sistemas del datacenter y la carga que éstos deben soportar. La electrónica de red, los firewalls, los servidores de aplicaciones, los frontales web, los motores de base de datos, el almacenamiento y su consiguiente refrigeración consumen más y más energía a medida que aumenta la carga.

Y la cifra no es despreciable; un datacenter de tamaño medio consume en torno a 250.000 vatios/hora (por supuesto, muchísimo más si hablamos de grandes datacenters). Para poder entender la magnitud de la cifra, decir que es equivalente al consumo máximo de un edificio de viviendas de 20 plantas con 4 viviendas por planta. Cada minuto que el datacenter está al máximo de carga equivale a un importante incremento en la factura energética.

Pero aún siendo el gasto energético relevante, se queda realmente pequeño cuando se compara con los aumentos de potencia de TI para soportar hipotéticos futuros ataques.

Si en lugar de hablar de infraestructuras de TI se hablase de autopistas nadie en su sano juicio plantearía nuevas vías con cincuenta carriles para absorber la operación salida de verano. Como es de esperar, las infraestructuras de TI no se diseñan para soportar una carga infinita sino para soportar un número de veces limitado (5, 10, 20, ¿100?,...) la carga máxima estimada.

Y cada vez que se produce un ataque de denegación de servicio los responsables de la infraestructura atacada sienten la inmediata tentación de multiplicar por cinco la potencia de procesamiento disponible. Y esos aumentos de potencia suponen una inversión inicial enorme en hardware (decenas o centenas de miles de euros), otra a continuación en software (muchos sistemas basan su sistema de licenciamiento en la potencia de las máquinas), y otra última en forma de mayor consumo energético.

Y lo peor de todo: habrán construido su particular autopista de cincuenta carriles con el coste que ello supone pero ni aún eso les garantiza salir airosos del siguiente ataque.


2ª. Atacar un sitio web es muy similar a atacar una oficina tradicional

Algunas empresas no tienen presencia física, son ciento por ciento virtuales. Otras muchas tienen una parte importante de su negocio depositada en el éxito de su sitio web. Para ellas tener su sitio web fuera de línea puede suponer importantísimos costes económicos, bien sea por falta de ventas, por daños a su imagen pública u otros.

En el caso específico de una administración pública, y más en el de un ayuntamiento por ser la administración más cercana al ciudadano, su sitio web es algo muy similar al mobiliario urbano. Su web, construida con dinero público, permite la tramitación administrativa de ciudadanos y empresas, pero también permite otras cosas mucho más terrenales como reservar una pista de tenis o baloncesto para el día siguiente, renovar un préstamo de un libro en su biblioteca, consultar la agenda cultural de su ciudad,... En definitiva, constituye lo que podría llamarse el cíber-mobiliario urbano.

Sin embargo, la percepción ciudadana y mediática es muy diferente frente a hechos razonablemente similares. Se responde de forma muy diferente al hecho de quemar un contenedor de recogida de basuras y al ataque de un sitio web pese a que ambos suponen una merma de servicios ciudadanos y tiene un importante coste para las arcas públicas.

La legislación norteamericana habilita el uso de fuego real para responder a cíber-ataques, lo que a todas luces parece excesivo pero también es anormal el que los ataques a sitios web se publiquen en las redes sociales con absoluta impunidad. En algunos casos se pueden leer tweets que claramente incitan al ataque, en ocasiones incluso lanzados desde cuentas de Twitter asociadas a empresas.


3ª. El término cíber-activista

La última reflexión que considero relevante es la cobertura que los medios de comunicación dan a los cíber-ataques y más en concreto a quienes los realizan. Éstos son denominados cíber-activistas, posiblemente, en la búsqueda de similitud con los jóvenes de principios del siglo XX que viajaban a otros países para participar en guerras. Lo hacían únicamente por ideología, algo que, probablemente, terminó con la segunda guerra mundial.

Y es cierto que participan personas de todos los lugares. Cuando se geolocalizan las direcciones IP del ataque (los ataques actuales rara vez utilizan equipos zombies, por lo que suelen ser direcciones IP reales) se observa que muchos accesos provienen de lugares que nada tienen que ver con el problema que origina la protesta. Es decir, hay una cierta carga solidaria o ideológica similar a la de los jóvenes de principios del siglo XX.

Sin embargo, hay algo que falla en la denominación de cíber-activista. Si se da por buena la segunda reflexión, la de equiparar los cíber-ataques con los ataques a instalaciones reales, por reducción a lo absurdo habría que considerar activista (sin el prefijo cíber) a quien destruye mobiliario urbano o cristaleras de locales comerciales durante las manifestaciones. No tengo claro que la opinión pública esté tan de acuerdo con esto porque, probablemente, un ciber-activista es otra cosa.


Die endgültige

Internet y las redes sociales son en sí mismas una enorme oportunidad para igualar la potencia y capacidad de llegada del mensaje de las grandes corporaciones con el de las pequeñas asociaciones o incluso con el de las personas individuales, tanto en cantidad y calidad; Wikileaks es un claro ejemplo de ello. Pero mal vamos si se confunde esa potencia con la capacidad de realizar impunemente en el mundo cíber cosas que en el mundo real serían claramente punibles.



Enlaces relacionados:

     › Seguridad TI: ¿hemos perdido la batalla?
     › 8 lecciones de TI aprendidas con Wikileaks



www.tonsofit.com


* Nada de lo aquí expuesto juzga en modo alguno la razón -o su ausencia- para protestar contra medidas de empresas o instituciones que se consideren injustas. Lo único que analiza es si los cíber-medios para canalizar la protesta son adecuados.


RSS

¿Son compatibles la web y la televisión?



RSS

La televisión de Google, Apple y Microsoft
Apple, Google y Microsoft están a la carrera por posicionarse en el mercado emergente de las televisiones inteligentes, la televisión IP, la televisión web o como quiera que se le termine llamando.

La idea a priori no parece mala y plantea dos grandes ventajas: poder consumir en la televisión los servicios de la web y poder utilizar Internet como medio de transporte. Empecemos por la segunda, y dejemos la diversión para el final.


Internet como medio de transporte de la televisión

Televisión online o televisión con acceso a Internet
Transmitir la señal de televisión mediante redes IP no es nada nuevo ni a estas alturas sofisticado. IP ha demostrado ser un protocolo suficientemente abierto y flexible como para poder soportar cuantas cargas se le han ido echando y el futuro paso a IPv6 (si algún día termina ocurriendo) le garantiza el crecimiento y escalabilidad necesarios.

Al utilizar protocolos IP como medio de transmisión se pasa de un modo 1 a N, donde los productores de contenidos tienen una programación y los consumidores (en masa) deben adaptarse a ella, a un modo 1 a 1 donde es el consumidor quien decide qué programa ve independientemente de la hora a la que éste se transmita. Es el concepto de video-club online llevado al extremo ya que permite incorporar a la televisión las ventajas respecto al poder de decisión del consumidor de las que ya disfrutan, por ejemplo, los periódicos online o YouTube.


Las diferencias de consumir web y consumir televisión

Ver la televisión es una actividad radicalmente diferente que navegar por la web. Navegar exige activar partes de la región prefrontal del cerebro asociadas a la toma de decisiones ya que una vez tras otra se debe decidir qué partes de la pantalla leer, si hacer scroll o no, si pinchar en uno u otro enlace, volver atrás,... Durante la navegación web se genera adrenalina, una hormona de acción.

Dormido frente a la televisión
Sin embargo, ver la televisión es una actividad absolutamente pasiva. Únicamente hay que sentarse delante del televisor y dar rienda suelta al cerebro para que comience a segregar serotonina, la hormona que regula el humor, el estado de ánimo y el sueño, entre otras cosas; no hay que tomar ningún tipo de decisión, a lo sumo cambiar de canal si el contenido no engancha (no se genera suficiente serotonina) o hay un corte de publicidad.

Quizá por eso no molesta estar viendo la televisión de forma pasiva junto a otras personas, pero nos incomoda un poco más estar viendo contenidos de la web cuando es otro quien maneja el ratón.

Tampoco es lo mismo ver contenidos en un teléfono móvil, un PC/tableta o una televisión de 32 pulgadas. La distancia a la que se sitúa el dispositivo (se sigue instintivamente la regla 1-2-10 para determinar el número de pies de distancia al que se sitúan el móvil, el ordenador y la televisión respectivamente) afecta radicalmente a lo que el usuario recibe a través de sus sentidos.

Según parece, el nivel de concentración y aislamiento de la realidad disminuye a medida que aumenta el tamaño de la pantalla: la pantalla del móvil nos aísla por completo, el PC y la tableta nos aísla, aunque menos -tenemos más conciencia de lo que ocurre a nuestro alrededor- y la televisión nos aísla bastante poco, lo que la convierte en un medio mucho más social.

Es fácil comprobar esto último al ver como en ocasiones hay varias personas en corrillo manejando su teléfono móvil, absolutamente absortos y sin tener la más mínima consciencia de lo que está haciendo o diciendo la persona que tiene a apenas 50 centímetros de él. Esto ocurre en muchísima menor medida cuando están delante de una televisión.


Tres empresas, tres enfoques

Microsoft ha aprendido que los usuarios no quieren cosas complejas en la televisión y lo ha aprendido de la forma más cara: mediante la experiencia. Quizá por ello su propuesta de valor sea ahora un simple "Your TV. Everywhere" que básicamente hace referencia a las ventajas de Internet como medio de transmisión y se olvida por completo de intentar llevar un desktop de Windows (eso era básicamente Windows Media Center) a la televisión del salón. En su nueva apuesta juega con una gran baza, Kinect y Xbox.

Apple no es menos y su amor por lo sencillo está claramente reflejado en su "Apple TV - Alquila los últimos estrenos en HD sin moverte" que únicamente hace referencia a la capacidad de llegada de Internet  permitiendo acceder a cualquier contenido, a cualquier hora y desde cualquier lugar. De entrada, se olvida por completo del resto.

Sin embargo, el enfoque de Google es "TV, apps, search and the entire web... together at last. Your TV just got smarter" que, en esencia, se parece mucho a lo que Microsoft intentó hace años con Windows Media Center. Cuesta pensar en varias personas viendo la televisión en el salón mientras uno de ellos pone en pausa la película para hacer una búsqueda en Google. El lío está garantizado.

¿Cual es más acertado?


Enlaces relacionados:

     › www.apple.com/es/appletv
     › www.google.com/tv
     › www.microsoft.com/mediaroom



RSS

Tecnología elitista en tiempos difíciles



RSS

iPhone con diamantes
En unas semanas aparecerá el nuevo iPhone y casi con absoluta seguridad volverán a repetirse imágenes de impacientes clientes haciendo cola en la calle durante toda la noche para ser los primeros en poseer su preciado tesoro. Y lo mejor de todo, serán realmente felices por haber tenido el privilegio de pagar en torno a 600 € por un teléfono móvil.

Probablemente, el ser humano es la única especie de la cadena evolutiva con la capacidad de pensamiento simbólico suficiente como para pagar 600 € por un teléfono móvil, teniendo en cuenta la complicada coyuntura económica y el sueldo medio de la zona Euro, que se sitúa algo por encima de los 27.000 € brutos anuales (unos 1.500 € netos mensuales en catorce mensualidades).

Salario medio bruto en la UE
Vistos los números, cualquiera diría que nos hemos vuelto todos locos. O tal vez ha surgido una legión de descerebrados de debajo de las piedras. Pues parece que ni lo uno ni lo otro.


Poder simbólico

El iPhone o el iPad son una categoría de producto en sí mismos. En el caso del iPad hay una clara asociación marca-producto, tal y como le ocurre a Donuts, Albal, Bitter Kas, Dodotis o Tampax. La gente en general habla de iPad cuando quiere referirse a una tableta cualquiera. En el caso del iPhone ocurre algo parecido ya que Apple ha conseguido convencernos de que existen dos tipos de teléfonos: iPhone y el resto.

Ambos crean su propia categoría de poder simbólico. Tal y como ocurre con los coches, poseer un buen teléfono móvil, y el iPhone lo es, se asocia consciente o inconscientemente con un determinado estatus social y económico y eso, en parte, justifica las colas.

Incluso hay estudios que se atreven a asociar el disponer de un determinado tipo de teléfono móvil con la probabilidad de tener relaciones sexuales.


Cambio de reparto económico
Incremento del gasto en los hogares 1997-2009

Pero hay algo más que se está obviando y es que el reparto del gasto en las familias ha variado sustancialmente en los últimos años.

Según los datos del INE, entre los años 1997 y 2009 el grupo de gasto que más ha crecido en las familias ha sido el dedicado a las comunicaciones que engloba tanto la compra de terminales como el gasto corriente en teléfono. De hecho, ha crecido a un ritmo 10 veces superior a otros grupos como la enseñanza o ropa y calzado y a más del doble de velocidad que gastos que se sabe que han crecido considerablemente como la vivienda.

Y la tendencia a aumentar el consumo telefónico parece que se acelera porque centrando el análisis en los últimos cuatro años se puede observar que el gasto por este concepto ha pasado del 2,84% al 3,36% del presupuesto total de gasto de las familias que, para cubrir este incremento, retraen el consumo en todas las demás partidas salvo en la vivienda. De hecho, las comunicaciones y la vivienda son las únicas partidas de gasto en las familias que no se han visto afectadas por la crisis ya que son las únicas que crecen entre 2008 y 2009.

Gasto en las familias 2006-2009

La necesidad de comunicación de los humanos es evidente, tanto que a juzgar por los datos se podría afirmar que las familias consideran el creciente gasto telefónico como un elemento de primera necesidad, por encima de la salud, enseñanza, ropa y calzado... Curioso.


Bola extra 1

Buceando un poco más en la Encuesta de Presupuestos Familiares se observa que el grupo de consumo 8 está formado por dos subgrupos, uno dedicado al coste de los terminales y otro al consumo en sí. Los datos dicen que el primero baja ligeramente y que el segundo sube de forma considerable, y de ahí la subida del grupo en su conjunto.

Esto cuestiona en gran medida la información de las operadoras de que no es sostenible la financiación de los terminales ya que lo que pierden al regalar teléfonos lo recuperan con creces con la facturación mensual. Es más, a juzgar por los datos deberían ser los propios clientes quienes no quisiesen que las operadoras les financiasen -a un supuesto tipo cero- ya que esto repercute muy negativamente en su gasto mensual.


Bola extra 2

Es posible que todo esto justifique en parte el que en momentos económicos difíciles el mercado de PCs, como el de la práctica totalidad de bienes de consumo, esté sufriendo un duro ajuste mientras el iPhone desaparece de las baldas como un caramelo a la puerta de un colegio. Y probablemente es una razón mucho más sólida que la de que estamos en la era Post-PC. Cuando los bienes de consumo comiencen de nuevo a estar en la parte positiva de la gráfica será el momento de saber si el ajuste en el mercado del PC es debido a la crisis o hay algo más de fondo.


www.tonsofit.com


RSS

El extraño benchmarking de TI de las Administraciones Públicas



RSS

El benchmarking es, posiblemente, una de las mejores herramientas para conseguir mejoras en el funcionamiento de cualquier organización, pública o privada. Y aún más en el caso de las públicas que, por su propia idiosincrasia, no están sometidas directamente al rigor del día a día del mercado*.

En ese escenario, compararse con otras Administraciones puede ser un excelente mecanismo para medir la calidad y cantidad de los servicios prestados a la ciudadanía.

Pero para que los resultados sean válidos es imprescindible que los elementos a medir sean relevantes (Perogrullo dixit).



La Administración Pública y el benchmarking de TI

A mediados de Julio la Fundación Orange presentaba su informe anual sobre la Sociedad de la Información y como anexos al informe se facilitaban dos documentos sobre los servicios públicos online en Comunidades Autónomas y Ayuntamientos. La información de los anexos es realmente relevante para conocer la situación de cada Administración dentro del mapa global pero, ¿es apropiado lo que se mide?

El informe asocia un mayor desarrollo de la sociedad de la información en la Administración con el número de procedimientos administrativos disponibles online lo que, en principio, podría parecer correcto. A fin de cuentas, llevando las TI al mundo real, sería razonablemente equivalente a comparar el nivel de infraestructuras de un país en base al número de kilómetros de autopistas, aeropuertos o líneas de tren de alta velocidad. Así, el informe asigna la máxima puntuación a quien mantiene online los 20 procedimientos seleccionados.

Pero hay algo que se está pasando por alto: el nivel de utilización de las vías telemáticas para relacionarse con la Administración es realmente ínfimo.

El gráfico adjunto -extraído de los datos del informe- muestra a las claras que muchos de los trámites analizados tienen un nivel de aceptación menor del cinco por ciento.

Volviendo al símil del mundo real, esto sería equivalente a que se construyesen enormes autopistas por las que apenas circulase algún coche y además se premiase a quienes más infraestructuras de este tipo pusieran en marcha. Probablemente, alguien se cuestionaría si eran necesarias.


¿Qué prefieren los ciudadanos?

Los ciudadanos muestran claramente su predilección por el canal presencial relegando al canal telemático a un porcentaje realmente pequeño, en ocasiones prácticamente comparable con el vetusto y con imagen de poco techie canal telefónico.

Es muy significativo que incluso en la pura obtención de información, algo en lo que la Web es especialmente potente, el ciudadano prefiera el canal presencial frente al telemático con una diferencia del cien por cien.

Ante estas evidencias, ¿no sería razonable añadir a los parámetros del benchmarking alguna referencia al éxito en la utilización por parte de la ciudadanía, al rendimiento por euro invertido o cualquier otro indicador que permita medir de verdad el estado de la sociedad de la información en las Administraciones Públicas? Valorando parámetros adicionales se obligaría a las Administraciones a analizar las causas del bajo éxito a fin de mejorar los niveles de utilización y satisfacción. En definitiva, se podría medir la calidad además de la cantidad.

Se han hecho enormes esfuerzos para poner online una parte muy importante de la tramitación administrativa pero algo se está pasando por alto si la ciudadanía no utiliza estas nuevas herramientas. Algunas de las razones son: (a completar entre todos).

www.tonsofit.com


RSS

¿TomTom? Ya no, gracias.



RSS

Google y Tomtom
Cuentan las escuelas de negocios que cuando Roberto Goizueta revisaba con su equipo directivo la curva de ventas de Coca-Cola y la de su principal competidor, Pepsi, alguien le dijo: ‹las cosas marchan Roberto, estamos aumentando el diferencial sobre nuestro competidor (Pepsi)›.
En ese momento, se giró y le contesto: ‹nuestra competencia no es Pepsi; son el café, la leche, el vino, el té e incluso el agua›.

Es posible que no fuera del todo así y que la historia se haya ido azucarando a lo largo de los años pero, sea como fuese, es claro que Goizueta supo hacerse la pregunta adecuada. La amenaza -y por tanto la oportunidad- no venía de Pepsi sino de las bebidas que acaparaban el 95% del mercado de los líquidos en el estómago de los consumidores.

Algo parecido deben estar pensando en TomTom tras la decisión de Google de permitir la descarga de mapas en su Google Maps Navigation.

Google Navigator
Hasta ahora, los competidores de TomTom eran NavMan, GarminMio y algún clónico más, o eso creían. Google no era un competidor firme en este mercado ya que, aunque tenía toda la tecnología y los medios necesarios, adolecía de un serio problema: necesitaba estar permanentemente conectado porque toda la información se descargaba de sus servidores en tiempo real.

Salvado ya ese pequeño problema resulta increíble poder navegar con indicaciones de voz al tiempo que se visualizan los mapas tradicionales, imágenes de satélite de alta calidad o incluso las imágenes de Google Street View. Y todo con información del tráfico en tiempo real, las indicaciones de lugares del motor de búsquedas y todo el resto de funcionalidades que aporta lo que Google ya tiene construido alrededor de los mapas.

Es de hecho una completa redefinición del mercado de los sistemas de ayuda a la navegación.

Y lo mejor de todo, con coste cero. Difícil lo tiene TomTom frente a eso porque es muy complicado ser más barato que alguien que no cobra. Sin duda, tendrá que redefinir su modelo de negocio buscando fuentes de ingresos de la publicidad, desmarcándose con mejoras que justifiquen el pago o buscando acuerdos de nicho con los fabricantes de coches.


Dos conclusiones

1ª. La tecnología te eleva a gran velocidad pero te destruye aún más rápido.
La industria tecnológica, precisamente por su enorme aceleración, es capaz de encumbrar a una empresa en tiempos absolutamente irreales en cualquier otro sector. Pero del mismo modo que se sube a la velocidad del rayo se puede caer incluso con mayor celeridad.

Por eso, cualquier empresa que quiera mantenerse en el Olimpo tecnológico debe ser capaz de anticiparse una y otra vez no solo a sus competidores sino a los que aún no lo son o a los que aún no se perciben como tales. Probablemente de uno de estos últimos vendrá el golpe.

2ª. Google asume de forma implícita un modelo mixto de cloud y on premise.
Google ha permitido la descarga de mapas a los dispositivos. Esta era una necesidad absolutamente vital en una aplicación -la ayuda a la navegación- donde prima la movilidad y donde no es admisible tener parones cuando se pierde la cobertura.

Probablemente el desarrollo de esta nueva funcionalidad de descarga no le habrá llevado más de una o dos semanas de trabajo a los ingenieros de Google. Y es probable también que si no lo ha hecho antes no sea porque no escucha a sus usuarios sino porque en cierto modo está admitiendo el modelo de computación On Premise y eso tiene que ser realmente duro para la compañía que ha nacido y presume de estar permanentemente en la nube. Al permitir la descarga de los mapas admite de forma implícita que un modelo híbrido -cloud y on premise- es necesario.

Enlaces relacionados:

     › Lo que Google sabe de nosotros
     › Cloud Computing: el problema no es técnico, es regulatorio


www.tonsofit.com


RSS

Dicen que estamos en la era post-PC



RSS

Levantas una piedra y aparecen varios analistas asegurando que estamos entrando en la era post-PC; una era en la que el PC perderá protagonismo en favor de otros dispositivos como smartphones, tablets, TV,...

Los líderes en el mercado de PCs no se han sabido sabido posicionar en el mercado de tablets o smartphones.
Hay muchos intereses en juego porque la mayor parte de los líderes en el mercado de PCs tienen cuotas más bien residuales en las nuevas categorías de dispositivos.

Es el caso de Intel frente a los procesadores ARM, Windows frente a Android e iOS o las máquinas de HP, Lenovo o Dell frente a Apple, Samsung o HTC.

Los dispositivos aumentan

Parece evidente que algo si está cambiando. El número de dispositivos conectados crece de forma espectacular, tanto que se estima que a finales de 2011 el número de dispositivos conectados a Internet -de cualquier tipo- será equivalente al número de personas sobre el planeta. En 2015 la tasa será de dos dispositivos por habitante y el crecimiento vendrá, fundamentalmente, de la mano de smartphones, tablets y comunicaciones máquina a máquina (M2M).

Sin embargo, el tráfico de Internet no irá a la par y los PCs seguirán siendo el elemento prioritario y fundamental a la hora de generar y consumir tráfico.

Tanto es así que la estimación de Cisco muestra que en 2015 el PC seguirá siendo líder con más del 55% del consumo sobre enlaces de datos wireless (WIFI, 3G,...) que es el reducto natural de smartphones y tablets.

Por supuesto, sobre enlaces no inalámbricos (cable, xDSL, fibra,...) el porcentaje del PC se mantendrá por encima del 95% y no hay que olvidar que los enlaces de este tipo suponen más de un orden de magnitud sobre los enlaces móviles.


Las aplicaciones

Si se atiende al crecimiento de las tiendas de aplicaciones de Apple y Android (ambas cerca de las 500.000 aplicaciones) uno podría pensar que ya no hay vida después de ellas. En este caso, la cuestión es qué entiende cada uno por Aplicación.

Tras un pequeño paseo por las tiendas se puede observar que hay cientos de aplicaciones cuya función es la de linterna. Es decir, encender al flash de la cámara para que el smartphone ilumine la noche. Lo mismo ocurre con software para la predicción meteorológica, recetas de cocina,... Algo similar en el mercado de PCs jamás tendría la consideración de aplicación y, como mucho, sería un gadget.
El número de aplicaciones se ha convertido en un elemento comunicador de marketing por encima de una razón tecnológica.

Las compañías han puesto el foco en disponer de cuántas más aplicaciones mejor sin pararse a pensar cuántas de ellas aportan realmente valor. Como es lógico, no todas las aplicaciones son de este tipo pero es claro que en las stores cuesta muchísimo más encontrar un software para editar hojas de cálculo que para conocer la hora de varias ciudades al mismo tiempo.

Terminando

Matar al PC no va a ser tarea sencilla. Los smartphones y tablets complementarán al PC en aquellas situaciones en las que lo más relevante sea la movilidad. Esto es, cuando la movilidad se anteponga de forma inequívoca a todas las demás variables.

Pero por mucho que insistan los analistas parece bastante irreal pensar que los tablets van a desplazar al PC en el entorno doméstico o en el profesional de oficina. E incluso en movilidad absoluta el movimiento probablemente no será tan brusco como lo pintan.

Lo que sí es probable es que los proveedores de los mercados de PC intenten buscar una mayor sintonía y un mayor look & feel con los nuevos dispositivos con el fin de posicionarse en un mercado al que llegan tarde. Seguramente veremos más PCs con discos de estado solido, más oferta de pantallas táctiles y sistemas operativos con grandes iconos y tal vez sin el concepto de ventana al más puro estilo de los smartphones.

Todo sea porque nuevamente volvamos a viajar con un único dispositivo. Ahora hay que llevar el tablet para el ocio y lo ratos libres y el PC cuando se quiere hacer algo en serio. Más el teléfono, lógicamente.

www.tonsofit.com

RSS

Apple, Google y Microsoft están de acuerdo en algo



RSS

¿Qué puede poner de acuerdo a Apple, Google y Microsoft?

No es el mercado de los sistemas operativos de escritorio, ni el de los teléfonos móviles y tabletas, ni el del software ofimático. Tampoco el de los buscadores y redes sociales. Y sin duda, tampoco el de la venta de contenidos online y la creación de marketplaces,...

Las tres compañías están de acuerdo en su deseo de modificar las condiciones para determinar la validez de una patente. La razón para ello es que la Corte Suprema de los Estados Unidos ha fallado recientemente a favor de una pequeña compañía canadiense (i4i) en su demanda contra Microsoft, imponiendo una multa de 200 millones de euros por infringir una de sus patentes. Apple y Google han apoyado a Microsoft durante todo el proceso ante la posibilidad de ser ellos los siguientes en ser demandados.

En el año 2010 se solicitaron cinco veces más patentes que en 1980.
Enlace de Interés: U.S. Patent Statistics Chart
La patente en cuestión es absolutamente peregrina ya que no está precisamente relacionada con un gran avance tecnológico. Es un simple editor de etiquetas XML, algo que Microsoft incluyó en Word 2003 y descontinuó en versiones siguientes.

Es más que probable que Michel Vulpe, el fundador y dueño de i4i, jamás soñase con obtener tanto rendimiento de tan poco desarrollo.


Patentando lo inimaginable

El problema es que la vorágine de registro de patentes es tal que es ya casi imposible patentar algo que no haya sido patentado previamente (en todo o en parte) por alguna otra compañía.

Por dar algunos números, en 1980 la Oficina de Marcas y Patentes de Estados Unidos aceptó 112.379 solicitudes. En el año 2010, apenas 30 años después, la cifra ascendió a 520.277 patentes.

Y como podría esperarse, las compañías de TI están muy bien posicionadas en el top 50 de número de patentes. De hecho, viendo algunas de ellas cuesta creer que con tantas patentes registradas sean capaces de tan poca innovación real (la que perciben los usuarios).

Para comprender esa disfunción habría que interpretar qué entiende cada compañía como avance tecnológico digno de ser patentado. Y en eso, el que no corre vuela.

Por ejemplo, está patentado el proceso (no la tecnología sino la descripción del proceso en sí) de cierre de un sistema operativo. Es decir, la sucesión de cosas que deben ocurrir para concluir con éxito el apagado de un ordenador. Y esa descripción de procesos se realiza al nivel de conceptos tal que "enviar una señal a cada aplicación para que se cierre y si no se cierra voluntariamente forzar su cierre".

Patentando avances a ese nivel es absolutamente imposible no tener litigios ya que cualquiera que plantee hacer un sistema operativo haría exactamente eso mismo.

Otro intento de patente plantea la definición de un mecanismo que impida la grabación mediante las cámaras de teléfonos móviles en lugares protegidos. El teléfono captaría una señal (¿de infrarrojos?) que forzaría el apagado de los dispositivos de grabación. Nuevamente, patentando una idea a un nivel tan conceptual se deja abierta la puerta a todo tipo de problemas legales con cualquier competidor que intente innovar.

Por eso no debe sorprender que haya tantas demandas cruzadas por utilización indebida de patentes:

  • Apple contra Samsung,  Nokia y HTC
  • Nokia contra Apple, Sharp, LG, Toshiba, Hitachi y QualComm
  • Samsung contra Apple
  • Microsoft contra Motorola y Android
  • RIM contra Motorola y Sharp
  • LG contra Sony
  • ...

Todos tienen razón porque todos son culpables. Plantean patentes a un nivel tan poco detallado que permite posteriormente hacer cualquier tipo de interpretación. ¡Si hasta el doble clic de ratón está patentado!

El caso de i4i pone de manifiesto como una pequeña compañía, jugando al mismo juego que los grandes proveedores de TI, puede plantearles graves perjuicios económicos al demandarles (y ganarles) por cuestiones absolutamente banales y sujetas a interpretación.

De fondo, está la capacidad que tienen las pequeñas compañías para innovar frente al aluvión de patentes de todo lo imaginable y parte de lo inimaginable.

www.tonsofit.com


RSS

Los contenidos de Tons of IT están sujetos a licencia Creative Commons Reconocimiento 3.0 salvo donde se indique lo contrario.