Resulta curioso observar como una pequeña startup tecnológica como Uber es de repente conocida en medio mundo. Los publicistas pagarían fortunas por eso y sin embargo, al menos visto desde fuera, esa repentina visibilidad en los medios parece un tanto incontrolada, ¿o tal vez no?
¿Qué tiene Uber de realmente novedoso como para aparecer en todos los medios de comunicación? Hagamos un pequeño repaso.
Permite compartir coche. Realmente no es así. Uber no está orientado a la compartición de coche. De hecho, aunque así fuera, eso ya está bastante trillado. Hace apenas tres años, en el 2011, no había ayuntamiento que no tuviese en su web un sitio reservado para compartir coche bajo el paraguas de la eficiencia energética y de la optimización del tráfico. Para comprobarlo basta con buscar compartir coche ayuntamiento.
Permite optimizar del tráfico. Tampoco. Que se sepa, los coches de Uber no ayudan a mejorar el tráfico y aunque así fuera tampoco habrían sido novedosos en eso. Nuevamente, abundaban las Administraciones Públicas que hace no más de tres años se apuntaban a esa moda creando carriles bus-vao para coches en los que había más de un pasajero. La parte cómica de estas normas estaba en que surgieron de la nada conductores que disfrutaban viajando con un maniquí en el asiento del copiloto.
Permite hacer todas las gestiones por la web. Pues tampoco Uber es novedoso en eso. Desde hace muchos años existen webs de empresas y asociaciones que permiten hacer uso de coches compartidos que, en ocasiones aunque no siempre, son un eufemismo de un servicio de transporte maquillado con una suave capa de gestión comunitaria. Algunos ejemplos son compartir.org, respiro car sharing, amovens, carpooling y muchas otras.
Entonces, ¿qué hay realmente novedoso en Uber? En mi opinión, dos cosas.
Primera: Mercado local de ámbito global
La cultura web ha cambiado muchos paradigmas de gestión. Por ejemplo, ha revolucionado el marketing mezclando las campañas de masas y las campañas one to one porque la cantidad de información que voluntaria o involuntariamente dejamos por la web permite que las empresas diseñen campañas completamente personalizadas no importando si el público objetivo son diez personas o mil millones.
La siguiente revolución parece ser la forma de abordar los mercados. Hasta ahora teníamos mercados de nicho y mercados globales. Es cierto que existían aplicaciones similares a Uber pero muchas de ellas eran de nicho, para una ciudad o incluso un país, con lo que una persona debía usar una app diferente dependiendo del lugar donde estuviese. Sin embargo, Uber da el siguiente paso y crea la aplicación a nivel global, es decir, uniendo infinitos mercados de nicho para crear un mercado global. Ya no hay una aplicación para los taxis de Bilbao, otra distinta para Nueva York y una tercera para Londres. Simplemente hay una app global. Es exactamente lo mismo que ha hecho airbnb con el alquiler de viviendas y la extrapolación futura a otros segmentos y mercados parece evidente.
Algunos le llamarán a esto globalización de servicios, muy en línea con la Directiva de Servicios del Mercado Interior de la UE pero aún a mayor escala.
Segunda: El poder de la movilidad
La movilidad es la herramienta que permite que todo esto sea posible. Uber no tendría ninguna opción si para poder reservar un taxi necesitásemos acceder a Internet por un medio de escritorio tal que un PC, porque la mayor parte de las veces que necesitamos un taxi estamos en la calle. Un negocio como Uber sería simplemente imposible hace tres años.
Los smartphones han roto esta barrera y Uber ha llegado en el momento exacto; su proyecto sí es movilizar (eufemismo de reinventar gracias a la tecnología) un negocio ya existente.
Y una consecuencia, la pérdida de referencia del valor de las cosas. La economía del regalo
Los usuarios de la web, y no solo las nuevas generaciones, se han acostumbrado a la economía del regalo según la cual algunas cosas son gratis pese a que tienen un evidente valor y por tanto un coste.
Lo curioso es que parece que esa cultura está calando más allá de la web, como si quisiera salir de la pantalla de nuestro dispositivo.
Uber crea un modelo de negocio que en cierta medida incentiva la desregulación del mercado al igualar al taxista que pasa una inspección técnica más exigente, paga una licencia, un seguro de responsabilidad civil e impuestos, con otro trabajador que no hace nada de todo eso. Y quizá la pérdida de referencia en el valor de las cosas esté detrás de todo ello.
Puede que este cambio sea pasajero y también puede que no, que sea realmente una tendencia. Mientras lo descubrimos parece razonable proteger a los trabajadores afectados por competencia no demasiado leal.
Pero al mismo tiempo no olvidar que los accionistas de referencia de Uber son Google y Goldman Sachs y que su última ronda de financiación es superior al valor en bolsa de Hertz y Avis juntas, lo que le da cierta credibilidad. Por eso también sería sensato prepararse para el supuesto de que la tendencia se consolide, fomentando y ayudando al sector tecnológico local para que pueda innovar y algo de esa nueva riqueza se quede aquí. No olvidemos que Uber se lleva el veinte por ciento de toda la facturación y que su mercado es global.
www.tonsofit.com
Mostrando entradas con la etiqueta Competencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Competencia. Mostrar todas las entradas
¿Qué hay de nuevo en Uber?
martes, 23 de diciembre de 2014
Publicado por
Manu
Etiquetas:
Administración Pública
,
Competencia
,
Directiva de Servicios
,
early adopters
,
Economía del regalo
,
Gestión del cambio
,
Tecnología
Saludos desde
Bilbao
Nunca tan estándar y nunca tan incompatible
martes, 30 de septiembre de 2014
"Quien desarrolla aplicaciones al margen de los estándares tiene los días contados", Perogrullo dixit; Es probable que no haya ningún tecnólogo que no suscriba estas palabras porque hoy en día cuesta encontrar algo que no esté basado en SOAP, web services, XML,… todo es estándar.
Y sin embargo, creo no ser el único que tengo la sensación de que hay segmentos donde las aplicaciones son cada vez menos compatibles. Pongamos un ejemplo que lo ilustre: la telefonía.
Hace apenas diez años se discutía si las comunicaciones de voz debían estar basadas en protocolos normalizados como H.323, si debían estar basadas en protocolos bien aceptados en el mundo Open como SIP o si debían basarse en protocolos propietarios de las compañías líderes como SCCP que intentaba imponer Cisco.
Avancemos esos diez años. Nos encontramos con las plataformas empresariales de voz IP de Cisco, Avaya, Microsoft,… que en general están integradas con los directorios corporativos. Pero al tiempo emergen otras cada vez más presentes, y no solo en el entorno residencial, también en el empresarial: Skype, Google Hangouts, Apple Facetime, Blackberry Messenger, Facebook Messenger, Snapchat, WeChat,…
Y si algo tienen en común todas ellas es que salvo honrosas excepciones no permiten llamadas a usuarios de otras aplicaciones. Algunas de ellas incluso solo están disponibles para un ecosistema concreto (Apple, Android, Windows o Blackberry).
La guerra no es tecnológica porque eso parece ser irrelevante. La contienda está centrada en quién gestiona la cuenta del usuario y que todo esté dentro de su ecosistema.
Esta incompatibilidad programada quizá les reporte ventajas en el corto plazo porque pueden avanzar más rápido al no tener que diseñar la interoperabilidad pero a medio plazo les puede resultar una enorme traba: ninguna de estas aplicaciones es capaz de sustituir al teléfono tradicional por muchas ventajas que tenga sobre él, que las tiene, porque ninguna de ellas garantiza la universalidad.
Esto mismo aplica a otras herramientas como el correo electrónico. Muchos quieren matarlo pero al sugerirlo no recaen en que el email aún sigue siendo la única forma telemática universal para comunicarse con TODOS los usuarios. Ni es la mejor, ni es la más rápida, ni es la más segura. Su única virtud es la universalidad.
La parte divertida es que los mismos que ahora crean el problema serán los que dentro de pocos años contarán la historia de la integración. O tal vez sea una compañía nueva la que entienda que no ser un medio universal te convierte en un medio de nicho, más grande o más pequeño, pero de nicho.
Mientras esperamos, esta falta de 'estándares' nos obliga a seguir utilizando el teléfono convencional –soportando la facturación por segundos de las operadoras- pese a que disponemos de tarifa plana en el acceso a Internet y apps capaces de sacarle chispas a esa conexión. Muy avanzado no parece...
www.tonsofit.com
Y sin embargo, creo no ser el único que tengo la sensación de que hay segmentos donde las aplicaciones son cada vez menos compatibles. Pongamos un ejemplo que lo ilustre: la telefonía.
Hace apenas diez años se discutía si las comunicaciones de voz debían estar basadas en protocolos normalizados como H.323, si debían estar basadas en protocolos bien aceptados en el mundo Open como SIP o si debían basarse en protocolos propietarios de las compañías líderes como SCCP que intentaba imponer Cisco.
Avancemos esos diez años. Nos encontramos con las plataformas empresariales de voz IP de Cisco, Avaya, Microsoft,… que en general están integradas con los directorios corporativos. Pero al tiempo emergen otras cada vez más presentes, y no solo en el entorno residencial, también en el empresarial: Skype, Google Hangouts, Apple Facetime, Blackberry Messenger, Facebook Messenger, Snapchat, WeChat,…
Y si algo tienen en común todas ellas es que salvo honrosas excepciones no permiten llamadas a usuarios de otras aplicaciones. Algunas de ellas incluso solo están disponibles para un ecosistema concreto (Apple, Android, Windows o Blackberry).
La guerra no es tecnológica porque eso parece ser irrelevante. La contienda está centrada en quién gestiona la cuenta del usuario y que todo esté dentro de su ecosistema.
Esta incompatibilidad programada quizá les reporte ventajas en el corto plazo porque pueden avanzar más rápido al no tener que diseñar la interoperabilidad pero a medio plazo les puede resultar una enorme traba: ninguna de estas aplicaciones es capaz de sustituir al teléfono tradicional por muchas ventajas que tenga sobre él, que las tiene, porque ninguna de ellas garantiza la universalidad.
Esto mismo aplica a otras herramientas como el correo electrónico. Muchos quieren matarlo pero al sugerirlo no recaen en que el email aún sigue siendo la única forma telemática universal para comunicarse con TODOS los usuarios. Ni es la mejor, ni es la más rápida, ni es la más segura. Su única virtud es la universalidad.
La parte divertida es que los mismos que ahora crean el problema serán los que dentro de pocos años contarán la historia de la integración. O tal vez sea una compañía nueva la que entienda que no ser un medio universal te convierte en un medio de nicho, más grande o más pequeño, pero de nicho.
Mientras esperamos, esta falta de 'estándares' nos obliga a seguir utilizando el teléfono convencional –soportando la facturación por segundos de las operadoras- pese a que disponemos de tarifa plana en el acceso a Internet y apps capaces de sacarle chispas a esa conexión. Muy avanzado no parece...
www.tonsofit.com
.
China y su expansión tecnológica
sábado, 1 de marzo de 2014
Hace aproximadamente un mes que Lenovo se ha hecho con la división de servidores de gama media de IBM, una operación cerrada en 2.300 millones de dólares.
Puede parecer curioso que IBM venda una parte de su empresa justo tras el trimestre en el que consigue el liderazgo en ese segmento de mercado. Pero lo cierto es que desde el punto de vista financiero es una decisión impecable.
Los márgenes en el mercado del hardware son más bien escasos si se comparan con el software o, sobre todo, con los servicios de consultoría. Es claro que si IBM tiene un negocio mejor que el hardware al que dedicar el dinero de sus accionistas, es lógico que lo haga.
Probablemente, más allá de la preocupación que provocan los cambios, lo que realmente sentirán sus competidores en este mercado (HP, Dell, Oracle o Cisco) es que sus divisiones de software y servicios no tiren lo suficiente como para tomar el mismo rumbo que IBM.
Ahora bien, la decisión tiene dos reflexiones obligadas.
Dos reflexiones
La primera es la creciente presencia asiática en el mercado tecnológico. Primero se deslocalizó en países asiáticos la fabricación de componentes dado el menor coste de su mano de obra. Posteriormente vino la fabricación y el ensamblado de equipos completos, lo que parecía no preocupar demasiado a Occidente ya que seguíamos manteniendo las tareas de diseño, las de I+D y las de mayor valor añadido.
Y en un momento en el que muchos líderes occidentales empiezan a cuestionarse la conveniencia económica de esas medidas, los países asiáticos, con el dinero generado por todo lo anterior, comienzan a comprar compañías occidentales. No ya la fabricación y el ensamblaje sino divisiones completas, incluyendo todo el conocimiento y habilidades de alto valor añadido. China pasa de ser un país manufacturero a un país que diseña, innova y aporta I+D en grandes dosis.
Europa, siendo muy generoso, está estancada en su inversión en I+D mientras que China presenta importantes incrementos año sobre año.
Siguiendo una tendencia lógica es razonable pensar que la siguiente gran compañía del software vendrá de Asia, una vez que ya dominan el hardware: fabrican prácticamente el 100% de los equipos y están detrás del I+D de más de la mitad de este mercado. En móviles y tabletas literalmente arrasan con compañías como Samsung, Xiaomi, Huawei, LG, ZTE, Motorola (ahora de Lenovo) o Sony.
La segunda tiene que ver con el valor de las compañías y la máxima de más vale pájaro en mano que ciento volando. Es curioso ver como la división de servidores de IBM, líder con prácticamente un tercio de market share a finales de 2013, una facturación anual de 3.300 millones de dólares y 7.500 empleados de primer nivel es vendida por 2.300 millones de dólares.
Y al mismo tiempo, una compañía como WhatsApp, con 50 empleados, 450 millones de usuarios -que no clientes- que no aportan beneficio alguno, en un mercado altamente infiel a las marcas y acostumbrado al coste cero y sin ningún tipo de fuente de ingresos conocida es comprada por 19.000 millones de dólares. Es decir, 8 veces más.
¿Qué es más saludable para una región: Una empresa que genera gran volumen de empleo de alta calidad y que genera riqueza con unas importantes cantidades en impuestos o una empresa que tiene un alto (e hipotético) potencial pero que no genera prácticamente empleo ni paga impuestos de ningún tipo?
¿Y si la estrategia de China es la correcta?
Enlaces relacionados:
› IDC Worldwide Server Market
www.tonsofit.com
Los márgenes en el mercado del hardware son más bien escasos si se comparan con el software o, sobre todo, con los servicios de consultoría. Es claro que si IBM tiene un negocio mejor que el hardware al que dedicar el dinero de sus accionistas, es lógico que lo haga.
Probablemente, más allá de la preocupación que provocan los cambios, lo que realmente sentirán sus competidores en este mercado (HP, Dell, Oracle o Cisco) es que sus divisiones de software y servicios no tiren lo suficiente como para tomar el mismo rumbo que IBM.
Ahora bien, la decisión tiene dos reflexiones obligadas.
Dos reflexiones
La primera es la creciente presencia asiática en el mercado tecnológico. Primero se deslocalizó en países asiáticos la fabricación de componentes dado el menor coste de su mano de obra. Posteriormente vino la fabricación y el ensamblado de equipos completos, lo que parecía no preocupar demasiado a Occidente ya que seguíamos manteniendo las tareas de diseño, las de I+D y las de mayor valor añadido.
Y en un momento en el que muchos líderes occidentales empiezan a cuestionarse la conveniencia económica de esas medidas, los países asiáticos, con el dinero generado por todo lo anterior, comienzan a comprar compañías occidentales. No ya la fabricación y el ensamblaje sino divisiones completas, incluyendo todo el conocimiento y habilidades de alto valor añadido. China pasa de ser un país manufacturero a un país que diseña, innova y aporta I+D en grandes dosis.
Europa, siendo muy generoso, está estancada en su inversión en I+D mientras que China presenta importantes incrementos año sobre año.
Siguiendo una tendencia lógica es razonable pensar que la siguiente gran compañía del software vendrá de Asia, una vez que ya dominan el hardware: fabrican prácticamente el 100% de los equipos y están detrás del I+D de más de la mitad de este mercado. En móviles y tabletas literalmente arrasan con compañías como Samsung, Xiaomi, Huawei, LG, ZTE, Motorola (ahora de Lenovo) o Sony.
La segunda tiene que ver con el valor de las compañías y la máxima de más vale pájaro en mano que ciento volando. Es curioso ver como la división de servidores de IBM, líder con prácticamente un tercio de market share a finales de 2013, una facturación anual de 3.300 millones de dólares y 7.500 empleados de primer nivel es vendida por 2.300 millones de dólares.
Y al mismo tiempo, una compañía como WhatsApp, con 50 empleados, 450 millones de usuarios -que no clientes- que no aportan beneficio alguno, en un mercado altamente infiel a las marcas y acostumbrado al coste cero y sin ningún tipo de fuente de ingresos conocida es comprada por 19.000 millones de dólares. Es decir, 8 veces más.
¿Qué es más saludable para una región: Una empresa que genera gran volumen de empleo de alta calidad y que genera riqueza con unas importantes cantidades en impuestos o una empresa que tiene un alto (e hipotético) potencial pero que no genera prácticamente empleo ni paga impuestos de ningún tipo?
¿Y si la estrategia de China es la correcta?
Enlaces relacionados:
› IDC Worldwide Server Market
www.tonsofit.com
¿Ya no hay deslocalización en el negocio de TI?
viernes, 18 de mayo de 2012
De un tiempo a esta parte ha dejado de ser habitual que las grandes consultoras de TI hablen del offshore o de la subcontratación de tareas en terceros países con costes laborales más bajos. Parece que el término ya no está de moda, tanto que algunas utilizan eufemismos como bestshore para evitar referirse a él.
¿Acaso es más conveniente hacer todo el desarrollo de los proyectos con recursos locales? Ahí van algunas razones que podrían justificar los motivos por los que el término offshore parece estar quemado.
1. Ahora todo se llama Cloud. Es prácticamente imposible encontrar algo en el sector TI que no tenga nada que ver con la nube. Tal vez suceda que conceptos como el offshoring hayan sido absorbidos por el concepto más general de Cloud y que, por tanto, los responsables de marketing de los grandes proveedores de TI prefieran consolidar todo bajo un único término para no confundir (o tal vez para hacerlo más) a los clientes.
2. Unas políticas industriales que ya no fomentan la deslocalización. Diseñar es de países occidentales dejando la producción para países en vías de Desarrollo. ¿Seguro? Son ya legión los países occidentales que, en la práctica, están volviendo a los conceptos previos a la híper-especialización y la deslocalización de las industrias; protegen al máximo las tareas de alto valor añadido del mismo modo que no hacen ascos, ni muchísimo menos, a las tareas de producción.
Países como Brasil protegen de forma clara sus industrias imponiendo altos aranceles a los productos terminados, no así a las piezas que permitan generar producto terminado en sus fábricas nacionales. Por ejemplo, Foxconn -principal fabricante mundial de componentes electrónicos y ensamblador del iPhone e iPad entre otros- tiene una reducción de impuestos del Gobierno brasileño de hasta el 95% a cambio de producir sus componentes en el país. Incluso Apple se ha plegado a las imposiciones del gobierno Brasileño y produce sus productos por primera vez fuera de China. Lo mismo ocurre con las políticas industriales de otros muchos países como bien nos recuerda un buen colega y amigo.
3. Si dejas de hacer pronto dejarás de saber hacer. El escenario es el siguiente: los países occidentales se quedan únicamente con las tareas de análisis y diseño dejando el desarrollo de producto (la programación) para una factoría deslocalizada en Argentina o India, por ejemplo. Los responsables de la factoría remota no tardarán en aprender sobre el producto y en darse cuenta de que pueden hacerlo de forma integral por sus propios medios, máxime en algo tan poco ligado a lo tangible como un desarrollo de software.
A su vez, los profesionales de las empresas occidentales se alejarán cada vez más del producto y eso, en cierto modo, les hará perder la perspectiva real de las cosas. Esto último no es más que la aplicación a la tecnología del viejo refrán que nos recuerda que hay que ser cocinero antes que fraile. Es difícil ser buen analista de aplicaciones informáticas si no se ha sido antes [buen] programador. No es una verdad universal pero se cumple en un porcentaje elevado de casos.
www.tonsofit.com
¿Acaso es más conveniente hacer todo el desarrollo de los proyectos con recursos locales? Ahí van algunas razones que podrían justificar los motivos por los que el término offshore parece estar quemado.
1. Ahora todo se llama Cloud. Es prácticamente imposible encontrar algo en el sector TI que no tenga nada que ver con la nube. Tal vez suceda que conceptos como el offshoring hayan sido absorbidos por el concepto más general de Cloud y que, por tanto, los responsables de marketing de los grandes proveedores de TI prefieran consolidar todo bajo un único término para no confundir (o tal vez para hacerlo más) a los clientes.
Países como Brasil protegen de forma clara sus industrias imponiendo altos aranceles a los productos terminados, no así a las piezas que permitan generar producto terminado en sus fábricas nacionales. Por ejemplo, Foxconn -principal fabricante mundial de componentes electrónicos y ensamblador del iPhone e iPad entre otros- tiene una reducción de impuestos del Gobierno brasileño de hasta el 95% a cambio de producir sus componentes en el país. Incluso Apple se ha plegado a las imposiciones del gobierno Brasileño y produce sus productos por primera vez fuera de China. Lo mismo ocurre con las políticas industriales de otros muchos países como bien nos recuerda un buen colega y amigo.3. Si dejas de hacer pronto dejarás de saber hacer. El escenario es el siguiente: los países occidentales se quedan únicamente con las tareas de análisis y diseño dejando el desarrollo de producto (la programación) para una factoría deslocalizada en Argentina o India, por ejemplo. Los responsables de la factoría remota no tardarán en aprender sobre el producto y en darse cuenta de que pueden hacerlo de forma integral por sus propios medios, máxime en algo tan poco ligado a lo tangible como un desarrollo de software.
A su vez, los profesionales de las empresas occidentales se alejarán cada vez más del producto y eso, en cierto modo, les hará perder la perspectiva real de las cosas. Esto último no es más que la aplicación a la tecnología del viejo refrán que nos recuerda que hay que ser cocinero antes que fraile. Es difícil ser buen analista de aplicaciones informáticas si no se ha sido antes [buen] programador. No es una verdad universal pero se cumple en un porcentaje elevado de casos.
4. Hay mano de obra local a buen precio. Probablemente debido a los puntos anteriores, los países occidentales ahora tienen disponible mano de obra local a mejor precio. Tal vez no en el centro de las grandes ciudades -tal vez también- pero sí en zonas menos industrializadas dentro de los países occidentales. Es el caso, por ejemplo, de Accenture en Málaga, Deloitte en Huesca o IBM en Salamanca. Con todo, posiblemente el coste por hora sigue siendo superior al del offshore pero se compensa en gran medida con los costes derivados de la deslocalización (problemas de idioma, diferencia horaria, dificultad para reuniones presenciales,...).
5. El éxito del modelo Cloud local. Las ofertas de Cloud están basadas, en gran medida, en las economías de escala y en ese contexto parece claro que cuanto mayor sea la economía de escala, mayores serán los beneficios. Parece lógico pensar, por tanto, que los proveedores de Cloud globales parten con ventaja. Sin embargo, la ubicación física del dato (su localización geográfica) se está convirtiendo en un valor clave y comienza a ser habitual la oferta de proveedores de Cloud no globales cuya mayor ventaja competitiva -cuando no la única- radica precisamente en que el dato está físicamente cerca, en datacenters ubicados en el mismo continente o incluso en el mismo país. Se da la paradoja de que se prima a un proveedor local en un modelo que está diseñado para proveedores globales.
¿Hay alguna razón más? ¿Sobra alguna?
5. El éxito del modelo Cloud local. Las ofertas de Cloud están basadas, en gran medida, en las economías de escala y en ese contexto parece claro que cuanto mayor sea la economía de escala, mayores serán los beneficios. Parece lógico pensar, por tanto, que los proveedores de Cloud globales parten con ventaja. Sin embargo, la ubicación física del dato (su localización geográfica) se está convirtiendo en un valor clave y comienza a ser habitual la oferta de proveedores de Cloud no globales cuya mayor ventaja competitiva -cuando no la única- radica precisamente en que el dato está físicamente cerca, en datacenters ubicados en el mismo continente o incluso en el mismo país. Se da la paradoja de que se prima a un proveedor local en un modelo que está diseñado para proveedores globales.
¿Hay alguna razón más? ¿Sobra alguna?
www.tonsofit.com
Publicado por
Manu
Etiquetas:
Cloud computing
,
Competencia
,
Innovación
,
Outsourcing
Saludos desde
París, Francia
¿TomTom? Ya no, gracias.
martes, 26 de julio de 2011
Cuentan las escuelas de negocios que cuando Roberto Goizueta revisaba con su equipo directivo la curva de ventas de Coca-Cola y la de su principal competidor, Pepsi, alguien le dijo: ‹las cosas marchan Roberto, estamos aumentando el diferencial sobre nuestro competidor (Pepsi)›.
En ese momento, se giró y le contesto: ‹nuestra competencia no es Pepsi; son el café, la leche, el vino, el té e incluso el agua›.
Es posible que no fuera del todo así y que la historia se haya ido azucarando a lo largo de los años pero, sea como fuese, es claro que Goizueta supo hacerse la pregunta adecuada. La amenaza -y por tanto la oportunidad- no venía de Pepsi sino de las bebidas que acaparaban el 95% del mercado de los líquidos en el estómago de los consumidores.
Algo parecido deben estar pensando en TomTom tras la decisión de Google de permitir la descarga de mapas en su Google Maps Navigation.
Hasta ahora, los competidores de TomTom eran NavMan, Garmin, Mio y algún clónico más, o eso creían. Google no era un competidor firme en este mercado ya que, aunque tenía toda la tecnología y los medios necesarios, adolecía de un serio problema: necesitaba estar permanentemente conectado porque toda la información se descargaba de sus servidores en tiempo real.
Salvado ya ese pequeño problema resulta increíble poder navegar con indicaciones de voz al tiempo que se visualizan los mapas tradicionales, imágenes de satélite de alta calidad o incluso las imágenes de Google Street View. Y todo con información del tráfico en tiempo real, las indicaciones de lugares del motor de búsquedas y todo el resto de funcionalidades que aporta lo que Google ya tiene construido alrededor de los mapas.
Es de hecho una completa redefinición del mercado de los sistemas de ayuda a la navegación.
Y lo mejor de todo, con coste cero. Difícil lo tiene TomTom frente a eso porque es muy complicado ser más barato que alguien que no cobra. Sin duda, tendrá que redefinir su modelo de negocio buscando fuentes de ingresos de la publicidad, desmarcándose con mejoras que justifiquen el pago o buscando acuerdos de nicho con los fabricantes de coches.
Dos conclusiones
Por eso, cualquier empresa que quiera mantenerse en el Olimpo tecnológico debe ser capaz de anticiparse una y otra vez no solo a sus competidores sino a los que aún no lo son o a los que aún no se perciben como tales. Probablemente de uno de estos últimos vendrá el golpe.
Probablemente el desarrollo de esta nueva funcionalidad de descarga no le habrá llevado más de una o dos semanas de trabajo a los ingenieros de Google. Y es probable también que si no lo ha hecho antes no sea porque no escucha a sus usuarios sino porque en cierto modo está admitiendo el modelo de computación On Premise y eso tiene que ser realmente duro para la compañía que ha nacido y presume de estar permanentemente en la nube. Al permitir la descarga de los mapas admite de forma implícita que un modelo híbrido -cloud y on premise- es necesario.
Enlaces relacionados:
› Lo que Google sabe de nosotros
› Cloud Computing: el problema no es técnico, es regulatorio
www.tonsofit.com
En ese momento, se giró y le contesto: ‹nuestra competencia no es Pepsi; son el café, la leche, el vino, el té e incluso el agua›.
Es posible que no fuera del todo así y que la historia se haya ido azucarando a lo largo de los años pero, sea como fuese, es claro que Goizueta supo hacerse la pregunta adecuada. La amenaza -y por tanto la oportunidad- no venía de Pepsi sino de las bebidas que acaparaban el 95% del mercado de los líquidos en el estómago de los consumidores.
Algo parecido deben estar pensando en TomTom tras la decisión de Google de permitir la descarga de mapas en su Google Maps Navigation.
Hasta ahora, los competidores de TomTom eran NavMan, Garmin, Mio y algún clónico más, o eso creían. Google no era un competidor firme en este mercado ya que, aunque tenía toda la tecnología y los medios necesarios, adolecía de un serio problema: necesitaba estar permanentemente conectado porque toda la información se descargaba de sus servidores en tiempo real.
Salvado ya ese pequeño problema resulta increíble poder navegar con indicaciones de voz al tiempo que se visualizan los mapas tradicionales, imágenes de satélite de alta calidad o incluso las imágenes de Google Street View. Y todo con información del tráfico en tiempo real, las indicaciones de lugares del motor de búsquedas y todo el resto de funcionalidades que aporta lo que Google ya tiene construido alrededor de los mapas.
Es de hecho una completa redefinición del mercado de los sistemas de ayuda a la navegación.
Y lo mejor de todo, con coste cero. Difícil lo tiene TomTom frente a eso porque es muy complicado ser más barato que alguien que no cobra. Sin duda, tendrá que redefinir su modelo de negocio buscando fuentes de ingresos de la publicidad, desmarcándose con mejoras que justifiquen el pago o buscando acuerdos de nicho con los fabricantes de coches.
Dos conclusiones
1ª. La tecnología te eleva a gran velocidad pero te destruye aún más rápido.
La industria tecnológica, precisamente por su enorme aceleración, es capaz de encumbrar a una empresa en tiempos absolutamente irreales en cualquier otro sector. Pero del mismo modo que se sube a la velocidad del rayo se puede caer incluso con mayor celeridad.Por eso, cualquier empresa que quiera mantenerse en el Olimpo tecnológico debe ser capaz de anticiparse una y otra vez no solo a sus competidores sino a los que aún no lo son o a los que aún no se perciben como tales. Probablemente de uno de estos últimos vendrá el golpe.
2ª. Google asume de forma implícita un modelo mixto de cloud y on premise.
Google ha permitido la descarga de mapas a los dispositivos. Esta era una necesidad absolutamente vital en una aplicación -la ayuda a la navegación- donde prima la movilidad y donde no es admisible tener parones cuando se pierde la cobertura.Probablemente el desarrollo de esta nueva funcionalidad de descarga no le habrá llevado más de una o dos semanas de trabajo a los ingenieros de Google. Y es probable también que si no lo ha hecho antes no sea porque no escucha a sus usuarios sino porque en cierto modo está admitiendo el modelo de computación On Premise y eso tiene que ser realmente duro para la compañía que ha nacido y presume de estar permanentemente en la nube. Al permitir la descarga de los mapas admite de forma implícita que un modelo híbrido -cloud y on premise- es necesario.
Enlaces relacionados:
› Lo que Google sabe de nosotros
› Cloud Computing: el problema no es técnico, es regulatorio
www.tonsofit.com
Publicado por
Manu
Etiquetas:
Cloud computing
,
Competencia
,
Google
,
Innovación
,
TomTom
,
Ventaja competitiva
Saludos desde
Bilbao, España
El software ¿y la democracia?
domingo, 14 de noviembre de 2010
Hace unas semanas, en Microsoft: el mayor impulsor del software libre, se analizaban los orígenes del software libre, su vertiginoso crecimiento y como el vacío creado en el mercado fue aprovechado por un nuevo agente, la comunidad, para crear un retador creíble frente al establishment.
Después, en Y el software libre se hizo negocio... se analizó la situación actual del software libre, un mercado formado casi en exclusiva por empresas que se abrazan a este tipo de software por diferentes razones, todas ellas unidas por un denominador común: Business is business.
Hoy toca hablar sobre la miopía de algunas administraciones públicas a la hora de lanzar proyectos basados en software libre, bien sea para crear un sistema operativo con el que parecen querer competir con los grandes fabricantes del software, bien para reservar partidas económicas para consumo exclusivo en software libre o bien para lanzar oficinas de apoyo o impulso a este tipo de software. Intentaremos demostrar como lejos de ayudar, hacen un flaco favor a su impulso real en la sociedad, porque no hay nada peor para cualquier producto o servicio que hacerle crecer de forma artificial sin enfrentarle a la competencia de los Mercados.
El doble papel de la Administración frente al software libre
El papel de las administraciones públicas frente al software libre debe medirse desde dos puntos de vista completamente diferenciados. En primer lugar, el obvio, el de su uso a nivel interno. Debe analizarse su comportamiento ante él en términos de coste total de propiedad y aportación de valor tal y como lo haría una corporación privada. En segundo lugar debe analizarse su postura (apoyo, rechazo o no interferencia) desde una perspectiva institucional.
Vayamos con el primer punto que es el más simple. Cabe pensar que no hay razón aparente para que las administraciones públicas tengan un comportamiento frente al software libre diferente al que pudiese tener una compañía privada. En ese sentido, deben medir este tipo de industria de acuerdo a los mismos parámetros, valorando el software en función de su coste total y aportación de valor y no de su procedencia, si bien es posible que añadan algún parámetro adicional.
Un ejemplo de parámetro adicional es el apoyo a las lenguas minoritarias. Qué duda cabe que una compañía de TI no tendrá demasiado interés en traducir sus productos a lenguas minoritarias cuando el esfuerzo para hacerlo resulte superior a la rentabilidad esperada. Eso parece lógico, siempre y cuando el interés y la rentabilidad atiendan a parámetros puramente económicos. Pero ¿qué ocurre cuando la comunidad de software libre dice que sí está dispuesta a traducir a esos idiomas sus productos equivalentes?
Cuando eso ocurre y la Administración en cuestión amenaza con cambiar a productos de software libre sucede que, súbitamente, los grandes fabricantes de TI muestran un enorme interés por las lenguas minoritarias. La competencia hace que los mercados evolucionen.
Volviendo de nuevo a la cuestión esencial, las Administraciones Públicas, cuando se trata de su uso a nivel interno, deberían tratar al software libre como a un competidor más, midiendo las ventajas y desventajas de su uso tal y como lo haría la empresa privada. En palabras de la Ley de contratos del sector público, dando prioridad a la opción más económicamente ventajosa que, tal y como indica la propia Ley, no es necesariamente la más barata sino la que tiene una mejor relación calidad-precio.
Posición institucional frente al software libre
Parece obvio que no hay razón para rechazar institucionalmente al software libre. Resultaría extraño que una administración pública rechazase una nueva forma de industria. Por tanto, la cuestión se centra en si debe impulsarlo o debe ser neutral. Para ello, se analizarán las potenciales ventajas desde el punto de vista de creación de tejido industrial y aumento de las inversiones locales, la balanza comercial con el exterior y la percepción de mayor democracia y libertades.
La mayor parte de las grandes compañías de software plantean modelos según los cuales ellas ponen el software y el conocimiento del producto a alto nivel dejando a los integradores locales el trabajo de adaptación, implantación y mantenimiento. Este es el modelo de compañías como, por ejemplo, IBM, HP, SAP, Oracle o Microsoft que rara vez compiten en proyectos con los integradores locales. Con ello consiguen centrarse en lo esencial –su producto- cuidando y protegiendo al mismo tiempo el negocio de los integradores que les hacen la labor comercial frente a sus potenciales clientes. Se consigue así una simbiosis entre fabricante e integrador que parece ser de interés para ambos.
En el caso del software libre a nivel empresarial el modelo es exactamente el mismo e incluso aún más potenciado. Por tanto, desde el punto de vista de aumento del tejido industrial e inversiones no parece haber grandes diferencias respecto a cuál de los dos modelos es mejor. Ambos trabajan con integradores que crean empleo y tributan localmente. Lo sé, lo sé, las licencias no tributan localmente pero seamos pacientes que ahora vamos con ello.
En cuanto a las licencias cabe analizar la balanza de pagos frente a los países donde residen las compañías de software. Es obvio que en disposición de escoger cualquiera elegiría no tener que hacer frente a pagos exteriores dado que esto mejoraría la balanza comercial con esos países que, en el caso de la industria del software, son principalmente EEUU y algún país europeo –Alemania y Reino Unido- a una enorme distancia.
La historia está repleta de casos en los que un bloqueo fronterizo resulta de interés en el corto plazo pero realmente nefasto en el medio y largo. Potenciar el software libre por el mero hecho de no empeorar la balanza de pagos (asumamos en este supuesto que el software comercial es de mayor calidad) provocaría inevitablemente un corralito tecnológico (en referencia al corralito financiero argentino) en la medida en que las empresas locales tendrían acceso a peor tecnología que las exteriores.
Esta forma de actuación, en una economía globalizada, provocaría una espiral de empeoramiento tecnológico que mermaría la productividad global de la zona de influencia de la administración pública. Sería una muy curiosa forma de generar tejido industrial la de esa Administración, porque desarrollo tecnológico y productividad están absolutamente relacionados. Si se dispone de peor tecnología se están sentando las bases para una peor productividad, ergo peor competitividad con las empresas extranjeras, ergo se va directo al abismo.
Pero, sin ser poco lo anterior, aún hay más. Primar un determinado producto o servicio en función del lugar de su producción y no en función de su calidad es una forma muy sutil de control arancelario. En ese sentido, dejando de lado el hecho de que podría no estar conforme a las normas internacionales sobre libre comercio, ni a la Directiva que regula la libre circulación de bienes y servicios en la UE, ni a la Ley que regula la contratación en el sector público (LCSP) y no valorando tampoco el hipotético empeoramiento tecnológico indicando anteriormente, la historia demuestra que la política de no importar es también una política de no exportar. Uno de los teoremas más importantes de la Teoría del Comercio (Abba Lerner, 1936) demostró que el gravamen sobre las importaciones es exactamente equivalente al gravamen sobre las exportaciones. En ese sentido, la decisión de primar un determinado software en función de su producción interna no beneficia en modo alguno al conjunto del PIB visto de modo global. Nuevamente, curiosa forma de generar riqueza la de esa Administración.
Finalmente, se llega a la cuestión por la que, desgraciadamente, con mayor frecuencia aparece el software libre en los medios de comunicación: líderes políticos esgrimiendo el aumento de la democracia tecnológica asociado al software libre. A modo de ejemplo se incluye este link sobre software sostenible y democrático (ahí es nada) como muestra de despropósito mediático. Se cita un enlace pero se cuentan por toneladas en Internet; propongo la búsqueda "software democracia" si se tiene tiempo libre para leer absolutos sinsentidos.
La cuestión de fondo es dilucidar si es lícito usar los derechos de copyright como medio para garantizar el negocio. Si en lugar de software se hablase de terrenos resultaría escandaloso negar el derecho a la propiedad privada. Bien es cierto que hay una diferencia fundamental entre un terreno y el software: si alguien cede, vende o regala un terreno deja de tenerlo. Sin embargo, si alguien cede, vende o regala un software ambos lo tienen. Maximizando este razonamiento de que lo intangible no puede tener derechos de propiedad han proliferado líderes políticos y sociales que abanderan el software libre como una nueva forma de democracia.
En un elevado número de ocasiones –aunque por supuesto no siempre es cierto- estos líderes trabajan en regiones sin pasado tecnológico que habitualmente corresponden a zonas no precisamente en la cúspide de la renta per cápita. Y hay varias explicaciones para que esto sea así. La primera es que todos esos lugares no parten de una potente infraestructura de TI previa y por tanto los costes de arrastre en el caso de una migración (afectan y mucho al TCO) son prácticamente inexistentes. La segunda es que no disponen de músculo financiero para abordar fuertes inversiones en TI y ven en el software libre una forma de iniciar el trayecto. Y la tercera, y preocupante, es que intentan buscar réditos mediáticos asociando el software libre a un aumento de las libertades.
Pongamos un ejemplo: la Junta de Extremadura. Su decidida apuesta por las tecnologías de software libre, vendidas políticamente a bombo y platillo como una nueva forma de entender la sociedad en la que el ciudadano tendría mayores cotas de libertad y democracia, no se han visto adecuadamente correspondidas a tenor de las cifras ofrecidas por varios organismos del Estado. En concreto, se encuentra a la cola de indicadores como el número de patentes, empresas y personas ocupadas en sectores de alta tecnología, número de doctorados o inversión en I+D.
Es decir, la decisión de fomentar el software libre no se acompañó de un plan real para potenciar la tecnología, lo que, en la práctica deja el discurso inicial en algo bastante cercano al simple juego político.
Como añadido, resulta cuando menos curioso que el tejido industrial de Extremadura no haya seguido la línea emprendida por sus dirigentes a tenor de los datos del INE, donde se muestra que las empresas Extremeñas, en clara contraposición a sus líderes políticos, no son demasiado proclives al uso del Linux. En esta comparativa Extremadura es la Comunidad Autónoma con menor presencia de Linux en las empresas y es tan solo superada en orden descendente por Castilla-La Mancha.
¿Cabría entonces preguntarse si los empresarios extremeños no han sabido ver ni entender las enormes ventajas asociadas al uso de Linux tal y como fueron anunciadas por sus dirigentes?
Tras el análisis de estos indicadores cuesta pensar que el software libre traerá más libertad y democracia a los ciudadanos de Extremadura tal y como aventuraban algunos de sus líderes políticos hace tan solo unos años.
Por el contrario, otras administraciones optarán por soluciones de software comercial y no por ello se le deberá dejar de exigir el mismo respeto a los estándares. Independientemente de la tecnología con la que esté desarrollada la solución, el usuario, en este caso el ciudadano, deberá tener la libertad para acceder a los sistemas de la e-Administración con las herramientas –Open Source o no- que él libremente decida. Es decir, independientemente de que la solución esté basada en tecnología de IBM, Microsoft, SAP, Oracle o de cualquier otro fabricante, el usuario deberá ser libre para decidir si su conexión se realiza con Internet Explorer, Firefox, Chrome o lo que él soberanamente decida.
Ambas alternativas, la de optar por una plataforma de software libre como la de optar por una plataforma liderada por una empresa tradicional, tienen la misma validez siempre que ambas hayan sido tomadas en base a argumentos técnicos y económicos y no a supuestos ideológicos.
Parece claro, por tanto, que las Administraciones Públicas deben tratar de ser neutrales en este mercado, sin favorecer ni perjudicar al software comercial ni al software libre que, en definitiva, no ha de olvidarse, es una forma diferente de industria -soportada por empresas- del software.
Conclusiones
Para su despegue definitivo es preciso que las decisiones respecto a la implantación del software libre se separen de forma inequívoca de cualquier razonamiento que no tenga su fundamento en la excelencia técnica, en la eficiencia y en el alineamiento estratégico con las empresas. Y para ello es preciso desmarcarse de ideologías que no hacen sino sembrar dudas en un mercado –el de la informática corporativa- poco dado a aventuras frente a tecnologías probadas y maduras salvo que las ventajas para el negocio sean incuestionables.
El software libre es un negocio apoyado por una nueva forma de industria que debe ser medido de acuerdo a los parámetros habituales de rentabilidad. Eliminar esa ilógica relación entre ideologías –cualesquiera que sean- y software permitirá eliminar esa aureola underground que aún hoy le rodea. Esto, sin duda, hará que muchos directores de sistemas valoren el software libre de calidad, que lo hay y mucho, por lo que realmente es importante: su calidad. Y el software libre que no sea de calidad –que también lo hay- simplemente desaparecerá. Exactamente igual que lo que ocurre con el software comercial.
La Administración debe garantizar la libre decisión del ciudadano a la hora de elegir software libre o comercial. En ese sentido, los sistemas de la próxima e-Administración deben ser totalmente compatibles con, por ejemplo, los navegadores Firefox, Internet Explorer, Chrome o cualquier otro que irrumpa en escena y tenga un porcentaje de mercado significativo. Igualmente, la documentación debe ser intercambiada en formatos de herramientas ofimáticas soportadas por estándares de mercado cuando sean de aplicación.
Sin embargo, este principio no es de aplicación cuando de lo que se trata es de definir la tecnología con la que dichos sistemas de e-Administración deben ser construidos. En ese caso, cada Administración, en función de sus necesidades tecnológicas y de las herramientas que el mercado en sentido amplio ponga a su disposición, deberá seleccionar la solución que mejor se adapta a sus planteamientos. Y la elección no debería estar basada en si el software es libre o no sino en qué software es el más adecuado técnica y económicamente en cada caso. Por ello se debe dar a, por ejemplo, Linux, Firefox, Chrome, OpenOffice o MySQL el mismo trato que se dispense a AIX, HP-UX, zOS, Windows, Internet Explorer, Office, Oracle o DB2.
Sería deseable que el software libre dejase de ser utilizado como sinónimo de Administración más abierta, más accesible o más democrática dado que relacionar ambos conceptos tiene bastante poco rigor. La presencia o ausencia de ésta -una Administración y una sociedad abiertas, accesibles y democráticas- poco o nada tiene que ver con la presencia o ausencia de un tipo de software en concreto. La tecnología, buena o mala, difícilmente crea mayores cotas de libertad o democracia. Es la utilización de esa tecnología por parte de las personas la que hace aumentar o disminuir los niveles de bienestar social; y mezclar ética con tecnología es un cóctel complejo de gestionar. Por tanto, no parece apropiado continuar con el discurso respecto a si es más ético utilizar software libre o no libre o si la Administración debería primar a uno u otro.
Re-conclusiones
En este post, más incluso que en anteriores, he intentando ser absolutamente respetuoso con todas las ideas. No obstante, estoy convencido de que habrá quien lo interprete como un ataque al software libre. A todos ellos les pediría que vuelvan a leerlo con un poco más de atención y en su caso repasen dos lecturas previas en Microsoft: el mayor impulsor del software libre y Y el software libre se hizo negocio...
La idea final es que potenciar el software libre de forma artificial por razones políticas es un curiosa forma de hacerle daño porque tan pronto como el interés político y su foco mediático desaparezcan (y tarde o temprano lo harán) entrará en caída libre. Los dirigentes políticos deberían potenciar siempre la mejor tecnología que esté al alcance (si es libre perfecto y si no lo es también perfecto) porque será esa la forma de aumentar la productividad y con ello la riqueza y bienestar social de su área de influencia. Es decir, las decisiones técnicas deben estar basadas en los mismos criterios que siempre han sido de relevancia: los criterios técnicos. La cita es, nuevamente, de nuestro buen amigo Perogrullo.
Después, en Y el software libre se hizo negocio... se analizó la situación actual del software libre, un mercado formado casi en exclusiva por empresas que se abrazan a este tipo de software por diferentes razones, todas ellas unidas por un denominador común: Business is business.
Hoy toca hablar sobre la miopía de algunas administraciones públicas a la hora de lanzar proyectos basados en software libre, bien sea para crear un sistema operativo con el que parecen querer competir con los grandes fabricantes del software, bien para reservar partidas económicas para consumo exclusivo en software libre o bien para lanzar oficinas de apoyo o impulso a este tipo de software. Intentaremos demostrar como lejos de ayudar, hacen un flaco favor a su impulso real en la sociedad, porque no hay nada peor para cualquier producto o servicio que hacerle crecer de forma artificial sin enfrentarle a la competencia de los Mercados.
El doble papel de la Administración frente al software libre
El papel de las administraciones públicas frente al software libre debe medirse desde dos puntos de vista completamente diferenciados. En primer lugar, el obvio, el de su uso a nivel interno. Debe analizarse su comportamiento ante él en términos de coste total de propiedad y aportación de valor tal y como lo haría una corporación privada. En segundo lugar debe analizarse su postura (apoyo, rechazo o no interferencia) desde una perspectiva institucional.
Vayamos con el primer punto que es el más simple. Cabe pensar que no hay razón aparente para que las administraciones públicas tengan un comportamiento frente al software libre diferente al que pudiese tener una compañía privada. En ese sentido, deben medir este tipo de industria de acuerdo a los mismos parámetros, valorando el software en función de su coste total y aportación de valor y no de su procedencia, si bien es posible que añadan algún parámetro adicional.
Un ejemplo de parámetro adicional es el apoyo a las lenguas minoritarias. Qué duda cabe que una compañía de TI no tendrá demasiado interés en traducir sus productos a lenguas minoritarias cuando el esfuerzo para hacerlo resulte superior a la rentabilidad esperada. Eso parece lógico, siempre y cuando el interés y la rentabilidad atiendan a parámetros puramente económicos. Pero ¿qué ocurre cuando la comunidad de software libre dice que sí está dispuesta a traducir a esos idiomas sus productos equivalentes?
Cuando eso ocurre y la Administración en cuestión amenaza con cambiar a productos de software libre sucede que, súbitamente, los grandes fabricantes de TI muestran un enorme interés por las lenguas minoritarias. La competencia hace que los mercados evolucionen.
Volviendo de nuevo a la cuestión esencial, las Administraciones Públicas, cuando se trata de su uso a nivel interno, deberían tratar al software libre como a un competidor más, midiendo las ventajas y desventajas de su uso tal y como lo haría la empresa privada. En palabras de la Ley de contratos del sector público, dando prioridad a la opción más económicamente ventajosa que, tal y como indica la propia Ley, no es necesariamente la más barata sino la que tiene una mejor relación calidad-precio.
Posición institucional frente al software libre
Parece obvio que no hay razón para rechazar institucionalmente al software libre. Resultaría extraño que una administración pública rechazase una nueva forma de industria. Por tanto, la cuestión se centra en si debe impulsarlo o debe ser neutral. Para ello, se analizarán las potenciales ventajas desde el punto de vista de creación de tejido industrial y aumento de las inversiones locales, la balanza comercial con el exterior y la percepción de mayor democracia y libertades.
La mayor parte de las grandes compañías de software plantean modelos según los cuales ellas ponen el software y el conocimiento del producto a alto nivel dejando a los integradores locales el trabajo de adaptación, implantación y mantenimiento. Este es el modelo de compañías como, por ejemplo, IBM, HP, SAP, Oracle o Microsoft que rara vez compiten en proyectos con los integradores locales. Con ello consiguen centrarse en lo esencial –su producto- cuidando y protegiendo al mismo tiempo el negocio de los integradores que les hacen la labor comercial frente a sus potenciales clientes. Se consigue así una simbiosis entre fabricante e integrador que parece ser de interés para ambos.
En el caso del software libre a nivel empresarial el modelo es exactamente el mismo e incluso aún más potenciado. Por tanto, desde el punto de vista de aumento del tejido industrial e inversiones no parece haber grandes diferencias respecto a cuál de los dos modelos es mejor. Ambos trabajan con integradores que crean empleo y tributan localmente. Lo sé, lo sé, las licencias no tributan localmente pero seamos pacientes que ahora vamos con ello.
En cuanto a las licencias cabe analizar la balanza de pagos frente a los países donde residen las compañías de software. Es obvio que en disposición de escoger cualquiera elegiría no tener que hacer frente a pagos exteriores dado que esto mejoraría la balanza comercial con esos países que, en el caso de la industria del software, son principalmente EEUU y algún país europeo –Alemania y Reino Unido- a una enorme distancia.
La historia está repleta de casos en los que un bloqueo fronterizo resulta de interés en el corto plazo pero realmente nefasto en el medio y largo. Potenciar el software libre por el mero hecho de no empeorar la balanza de pagos (asumamos en este supuesto que el software comercial es de mayor calidad) provocaría inevitablemente un corralito tecnológico (en referencia al corralito financiero argentino) en la medida en que las empresas locales tendrían acceso a peor tecnología que las exteriores.
Esta forma de actuación, en una economía globalizada, provocaría una espiral de empeoramiento tecnológico que mermaría la productividad global de la zona de influencia de la administración pública. Sería una muy curiosa forma de generar tejido industrial la de esa Administración, porque desarrollo tecnológico y productividad están absolutamente relacionados. Si se dispone de peor tecnología se están sentando las bases para una peor productividad, ergo peor competitividad con las empresas extranjeras, ergo se va directo al abismo.
Pero, sin ser poco lo anterior, aún hay más. Primar un determinado producto o servicio en función del lugar de su producción y no en función de su calidad es una forma muy sutil de control arancelario. En ese sentido, dejando de lado el hecho de que podría no estar conforme a las normas internacionales sobre libre comercio, ni a la Directiva que regula la libre circulación de bienes y servicios en la UE, ni a la Ley que regula la contratación en el sector público (LCSP) y no valorando tampoco el hipotético empeoramiento tecnológico indicando anteriormente, la historia demuestra que la política de no importar es también una política de no exportar. Uno de los teoremas más importantes de la Teoría del Comercio (Abba Lerner, 1936) demostró que el gravamen sobre las importaciones es exactamente equivalente al gravamen sobre las exportaciones. En ese sentido, la decisión de primar un determinado software en función de su producción interna no beneficia en modo alguno al conjunto del PIB visto de modo global. Nuevamente, curiosa forma de generar riqueza la de esa Administración.
La cuestión de fondo es dilucidar si es lícito usar los derechos de copyright como medio para garantizar el negocio. Si en lugar de software se hablase de terrenos resultaría escandaloso negar el derecho a la propiedad privada. Bien es cierto que hay una diferencia fundamental entre un terreno y el software: si alguien cede, vende o regala un terreno deja de tenerlo. Sin embargo, si alguien cede, vende o regala un software ambos lo tienen. Maximizando este razonamiento de que lo intangible no puede tener derechos de propiedad han proliferado líderes políticos y sociales que abanderan el software libre como una nueva forma de democracia.
En un elevado número de ocasiones –aunque por supuesto no siempre es cierto- estos líderes trabajan en regiones sin pasado tecnológico que habitualmente corresponden a zonas no precisamente en la cúspide de la renta per cápita. Y hay varias explicaciones para que esto sea así. La primera es que todos esos lugares no parten de una potente infraestructura de TI previa y por tanto los costes de arrastre en el caso de una migración (afectan y mucho al TCO) son prácticamente inexistentes. La segunda es que no disponen de músculo financiero para abordar fuertes inversiones en TI y ven en el software libre una forma de iniciar el trayecto. Y la tercera, y preocupante, es que intentan buscar réditos mediáticos asociando el software libre a un aumento de las libertades.
Pongamos un ejemplo: la Junta de Extremadura. Su decidida apuesta por las tecnologías de software libre, vendidas políticamente a bombo y platillo como una nueva forma de entender la sociedad en la que el ciudadano tendría mayores cotas de libertad y democracia, no se han visto adecuadamente correspondidas a tenor de las cifras ofrecidas por varios organismos del Estado. En concreto, se encuentra a la cola de indicadores como el número de patentes, empresas y personas ocupadas en sectores de alta tecnología, número de doctorados o inversión en I+D.
![]() |
| Fuente: Oficina Española de Patentes y Marcas (OEPM). Estadísticas de Propiedad Industrial. |
![]() |
| Fuente. INE. Ocupados en sectores de alta tecnología por Comunidades Autónomas y sectores |
![]() |
| Fuente: INE. Principales indicadores de I+D en los sectores de alta tecnología por Comunidades Autónomas, tipo de indicador y total / % |
Es decir, la decisión de fomentar el software libre no se acompañó de un plan real para potenciar la tecnología, lo que, en la práctica deja el discurso inicial en algo bastante cercano al simple juego político.
Como añadido, resulta cuando menos curioso que el tejido industrial de Extremadura no haya seguido la línea emprendida por sus dirigentes a tenor de los datos del INE, donde se muestra que las empresas Extremeñas, en clara contraposición a sus líderes políticos, no son demasiado proclives al uso del Linux. En esta comparativa Extremadura es la Comunidad Autónoma con menor presencia de Linux en las empresas y es tan solo superada en orden descendente por Castilla-La Mancha.
![]() |
| Fuente: INE. Variables de uso de TIC (a enero de 2008) por comunidad autónoma |
¿Cabría entonces preguntarse si los empresarios extremeños no han sabido ver ni entender las enormes ventajas asociadas al uso de Linux tal y como fueron anunciadas por sus dirigentes?
Tras el análisis de estos indicadores cuesta pensar que el software libre traerá más libertad y democracia a los ciudadanos de Extremadura tal y como aventuraban algunos de sus líderes políticos hace tan solo unos años.
Por el contrario, otras administraciones optarán por soluciones de software comercial y no por ello se le deberá dejar de exigir el mismo respeto a los estándares. Independientemente de la tecnología con la que esté desarrollada la solución, el usuario, en este caso el ciudadano, deberá tener la libertad para acceder a los sistemas de la e-Administración con las herramientas –Open Source o no- que él libremente decida. Es decir, independientemente de que la solución esté basada en tecnología de IBM, Microsoft, SAP, Oracle o de cualquier otro fabricante, el usuario deberá ser libre para decidir si su conexión se realiza con Internet Explorer, Firefox, Chrome o lo que él soberanamente decida.
Ambas alternativas, la de optar por una plataforma de software libre como la de optar por una plataforma liderada por una empresa tradicional, tienen la misma validez siempre que ambas hayan sido tomadas en base a argumentos técnicos y económicos y no a supuestos ideológicos.
Parece claro, por tanto, que las Administraciones Públicas deben tratar de ser neutrales en este mercado, sin favorecer ni perjudicar al software comercial ni al software libre que, en definitiva, no ha de olvidarse, es una forma diferente de industria -soportada por empresas- del software.
Conclusiones
Para su despegue definitivo es preciso que las decisiones respecto a la implantación del software libre se separen de forma inequívoca de cualquier razonamiento que no tenga su fundamento en la excelencia técnica, en la eficiencia y en el alineamiento estratégico con las empresas. Y para ello es preciso desmarcarse de ideologías que no hacen sino sembrar dudas en un mercado –el de la informática corporativa- poco dado a aventuras frente a tecnologías probadas y maduras salvo que las ventajas para el negocio sean incuestionables.
El software libre es un negocio apoyado por una nueva forma de industria que debe ser medido de acuerdo a los parámetros habituales de rentabilidad. Eliminar esa ilógica relación entre ideologías –cualesquiera que sean- y software permitirá eliminar esa aureola underground que aún hoy le rodea. Esto, sin duda, hará que muchos directores de sistemas valoren el software libre de calidad, que lo hay y mucho, por lo que realmente es importante: su calidad. Y el software libre que no sea de calidad –que también lo hay- simplemente desaparecerá. Exactamente igual que lo que ocurre con el software comercial.
La Administración debe garantizar la libre decisión del ciudadano a la hora de elegir software libre o comercial. En ese sentido, los sistemas de la próxima e-Administración deben ser totalmente compatibles con, por ejemplo, los navegadores Firefox, Internet Explorer, Chrome o cualquier otro que irrumpa en escena y tenga un porcentaje de mercado significativo. Igualmente, la documentación debe ser intercambiada en formatos de herramientas ofimáticas soportadas por estándares de mercado cuando sean de aplicación.
Sin embargo, este principio no es de aplicación cuando de lo que se trata es de definir la tecnología con la que dichos sistemas de e-Administración deben ser construidos. En ese caso, cada Administración, en función de sus necesidades tecnológicas y de las herramientas que el mercado en sentido amplio ponga a su disposición, deberá seleccionar la solución que mejor se adapta a sus planteamientos. Y la elección no debería estar basada en si el software es libre o no sino en qué software es el más adecuado técnica y económicamente en cada caso. Por ello se debe dar a, por ejemplo, Linux, Firefox, Chrome, OpenOffice o MySQL el mismo trato que se dispense a AIX, HP-UX, zOS, Windows, Internet Explorer, Office, Oracle o DB2.
Sería deseable que el software libre dejase de ser utilizado como sinónimo de Administración más abierta, más accesible o más democrática dado que relacionar ambos conceptos tiene bastante poco rigor. La presencia o ausencia de ésta -una Administración y una sociedad abiertas, accesibles y democráticas- poco o nada tiene que ver con la presencia o ausencia de un tipo de software en concreto. La tecnología, buena o mala, difícilmente crea mayores cotas de libertad o democracia. Es la utilización de esa tecnología por parte de las personas la que hace aumentar o disminuir los niveles de bienestar social; y mezclar ética con tecnología es un cóctel complejo de gestionar. Por tanto, no parece apropiado continuar con el discurso respecto a si es más ético utilizar software libre o no libre o si la Administración debería primar a uno u otro.
Re-conclusiones
En este post, más incluso que en anteriores, he intentando ser absolutamente respetuoso con todas las ideas. No obstante, estoy convencido de que habrá quien lo interprete como un ataque al software libre. A todos ellos les pediría que vuelvan a leerlo con un poco más de atención y en su caso repasen dos lecturas previas en Microsoft: el mayor impulsor del software libre y Y el software libre se hizo negocio...
Si después de eso siguen considerando que es un ataque al software libre les pido disculpas porque no era esa mi intención y de ser así no he conseguido expresarme con la suficiente claridad.
La idea final es que potenciar el software libre de forma artificial por razones políticas es un curiosa forma de hacerle daño porque tan pronto como el interés político y su foco mediático desaparezcan (y tarde o temprano lo harán) entrará en caída libre. Los dirigentes políticos deberían potenciar siempre la mejor tecnología que esté al alcance (si es libre perfecto y si no lo es también perfecto) porque será esa la forma de aumentar la productividad y con ello la riqueza y bienestar social de su área de influencia. Es decir, las decisiones técnicas deben estar basadas en los mismos criterios que siempre han sido de relevancia: los criterios técnicos. La cita es, nuevamente, de nuestro buen amigo Perogrullo.
Publicado por
Manu
Etiquetas:
Administración Pública
,
Competencia
,
eAdministración
,
Mercado
,
Software Libre
Saludos desde
Bilbao, España
















