¿Tenemos que elegir entre tecnología o ecología?



RSS

Desde hace varios años venimos asistiendo al nacimiento y desarrollo de la Green IT como una nueva forma más ecológica y sostenible de producir y consumir tecnología.

Sin embargo, la Green IT no acaba de ser del todo creíble y es que según parece hay algunos factores que nos hacen pensar que la contaminación y los elevados consumos de energía no tienen una clara relación con las Tecnologías de la Información.

Y como veremos esa relación existe y es probablemente muy superior a la que a priori podría parece razonable.

Factor 1. Las empresas de tecnología también son contaminantes

¿Son contaminantes Facebook o Twitter? Hemos elegido estas dos compañías para la pregunta porque ambas se dedican, en exclusiva, al software. Además, lo hacen en modo Cloud con lo que tampoco distribuyen sus productos en CDs empaquetados en cajas de cartón. No producen nada que sea tangible y, por tanto, muchas personas pensarán que no son contaminantes. Pero todas ellas se equivocarán.

Probablemente, contaminan menos que algunas fábricas pero no se puede decir, en absoluto, que sean inocuas con el medio ambiente. Porque los CPD no son ecológicamente neutros.

Un interesantísimo estudio de Electronics Cooling concluye que desde el 2001 los costes de infraestructura y energía son mayores que los costes de adquisición de los servidores del Data Center. Y más aún, desde 2008 únicamente los costes de energía son ya superiores a las inversiones en compra de servidores; y la tendencia dice que seguirán aumentando.

Es cierto que se ha mejorado algo en los últimos años pero el avance es realmente pobre cuando se compara el aumento de potencia real de las infraestructuras con el aumento de potencia por vatio consumido.

Es decir, en su mayor parte se consigue más rendimiento, año sobre año, a base de consumir cada vez más energía. La Ley de Moore no se cumple en absoluto en lo que se refiere al consumo de energía.

Las principales organizaciones ecologistas son conscientes del problema desde hace tiempo pero, probablemente, uno de los puntos de inflexión en su comportamiento frente a la producción de TI cambió a principios de 2010 con la decisión de Facebook de instalar un nuevo Data Center en Oregón (USA) alimentado básicamente por energías no renovables. El vídeo de Greenpeace no tiene desperdicio.


Lo que se dice de Facebook en la parte final del vídeo es probablemente aplicable al resto de la industria TI salvo algunas honrosas excepciones como la de Google que destina una importante partida económica al estudio de energías renovables y eficiencia energética a través de su plan Energía limpia 2030. De hecho, sus Data Centers son de los pocos que pueden presumir de un PUE (Power Usage Effectiveness) en torno a 1,1 cuando la media mundial está muy por encima de 2,0. Es decir, sus Data Centers consumen menos de la mitad de energía que la media, lo que les permite ser muy verdes y de paso ahorrarse una importantísima cantidad de dinero teniendo en cuenta que algunas estimaciones apuntan a que las TI suponen entre un 1 y un 2 por ciento del consumo energético mundial.

Nota: Un Data Center con un PUE de 2,0 implica que por cada vatio consumido en los equipos de TI se consume otro, fundamentalmente, en refrigeración.

Este consumo desmesurado de energía no es solo aplicable a los gigantes de TI sino que en menor medida se da en cada uno de nuestros Data Centers. Mientras no seamos plenamente conscientes de que la producción de TI es también contaminante no habrá presión suficiente sobre el mercado como para hacer variar algunas tendencias.

Factor 2. Estamos cansados de agoreros

Este factor no es exclusivo de la industria de las TI pero le es de plena aplicación. La debacle de las teorías fatalistas propugnadas por Al Gore ha hecho un enorme daño a la imagen de lo que en general pensamos del cambio climático. Y más aún si tenemos en cuenta que Al Gore no ha sido el primero en cometer el error de ser excesivamente fatalista. Leamos con atención el siguiente texto de SuperFreakonomics (aviso que tiene truco):

...solo en Estados Unidos, las grandes ciudades adquirieron treinta millones de nuevos residentes. Y a medida que el enjambre humano se desplazaba, junto con sus posesiones, de un lugar a otro, surgió un problema. El principal medio de transporte producía grandes cantidades de subproductos que los economistas llamaban externalidades negativas, que incluían atascos, grandes gastos en seguridad y demasiados accidentes mortales de tráfico. En ocasiones, cosechas que deberían haber ido a parar a la mesa de una familia se transformaban en combustible, haciendo subir los precios de los elementos y causando escasez. Y también estaban las emisiones contaminantes y tóxicas al aire, que ponían en peligro el medio ambiente y la salud de los individuos.

¿Hablamos de las ciudades de finales del siglo XX y principios del XXI y de los problemas del tráfico rodado? Pues no, es un texto que aplica a finales del siglo XIX y el medio de transporte al que se hace referencia es el caballo. El automóvil, más barato en precio y mantenimiento que un vehículo tirado por caballos, fue proclamado como salvador del medio ambiente. Recomiendo repetir la lectura tras conocer la época de la que se trata.

Uno de los principales problemas que tiene la ecología, y le aplica de lleno a la industria de TI, es que muy en el fondo pensamos que antes de que haya una debacle por el uso de un determinado tipo de energía seremos capaces de descubrir una nueva fuente energética que resolverá los problemas de la anterior, aunque en el futuro cause otros. Por eso no hacemos demasiado caso a los agoreros; todo parece ser una cuestión de coste-beneficio si atendemos a las teorías de Schumpeter y su destrucción creativa.

Factor 3. Quienes más propugnan Green IT no son precisamente un buen ejemplo

Por un lado ya hemos visto que hay un enorme desfase entre los aumentos de potencia real del hardware y el aumento de potencia por vatio de energía consumida. Es decir, los equipos consumen cada vez más energía, lo que es especialmente cierto en máquinas con alta densidad de componentes como los elementos de red (switches, routers, appliances,...).

Pero son aún peor ejemplo si tenemos en cuenta que el consumo energético de un dispositivo electrónico puede llegar incluso al 30 o 40 por ciento antes de que se pulse el botón de ON. Es decir, el consumo energético necesario para su fabricación puede suponer el 30% de todo el consumo de ese dispositivo durante su vida útil. Esto es especialmente cierto en el caso de los teléfonos móviles y en elementos de máxima integración (servidores pizza, blades, tablets, elementos de red,...) donde el consumo es reducido por unidad pero el coste energético de su producción es elevado.

Por tanto, pese a los cantos de sirena para renovar equipamiento por otro de mayor eficiencia energética, lo más ecológico que se puede hacer es intentar alargar la vida del equipamiento, lógicamente hasta donde sea razonable para evitar la Ley de Murphy. Porque el coste energético de fabricación del nuevo dispositivo será mucho mayor que los potenciales ahorros que generará frente a los equipos actuales. Todo ello sin contar con los enormes costes medioambientales que supone su posterior reciclaje.

Nuestros deseos para el Nuevo Año

Dadas las fechas en las que estamos creo que procede hacer propósitos de enmienda para el Nuevo Año. Ahí van algunos que se me ocurren.

Para nosotros: probablemente, como consumidores y gestores de tecnología lo más ecológico que podemos hacer es intentar alargar la vida del hardware que gestionamos, bien sean PCs, servidores, elementos de red, almacenamiento, teléfonos móviles,... o cualquier otro dispositivo electrónico. Alargar un año más su vida útil implica una reducción enorme en el consumo de energía y además es más que probable que hagamos muy feliz al CFO de la compañía.

Para los fabricantes de hardware: el consumo eléctrico de los equipos debe ser, como mínimo, constante. No es sostenible que cada vez que aparece una nueva revisión de los procesadores o memorias consuman un tanto por ciento más que los anteriores.

Para los fabricantes de software: los fabricantes de killer applications como, por ejemplo, Office o el propio Windows, no pueden seguir incrementando los requisitos de hardware al ritmo actual, máxime cuando los incrementos no están justificados en aumentos de productividad como, por ejemplo, Aero. Esto es también de máxima aplicación para software muy demandante de recursos como, por ejemplo, los antivirus e incluso para nuestros propios departamentos de desarrollo de aplicaciones. Hacer código más eficaz está directamente relacionado con el aumento de la vida útil de los equipos y esto lo está con el consumo energético.

Para los telcos: que dejen de incentivar el consumo desmesurado de terminales móviles. El tiempo de rotación  (el tiempo de vida de los teléfonos) baja en picado y debe estar ya cerca del año. Además, tarde o temprano, acabarán por darse cuenta de que, al margen de la ecología, esto es un problema en sí mismo para ellos.

Para el legislador: quien puede regular los mercados tiene en su mano implantar un mecanismo de medición de eficiencia energética en todos los dispositivos tal y como ya se hace con los electrodomésticos. Así podremos comparar cosas homogéneas. La información y transparencia hace que los mercados funcionen mejor y sean más eficientes en todos los sentidos.

www.tonsofit.com


RSS

¿Qué hay de cierto en la Ley de Murphy?



RSS

Tostada cayendo al revés por la Ley de Murphy
O los que nos dedicamos a las TI somos los mayores gafes de la historia de la humanidad o algo debe haber de cierto en la Ley de Murphy para que, una vez tras otra, la tostada se nos caiga al suelo por el lado de la mantequilla.

Lo primero de todo, y a pesar de haber servido para iniciar, aclarar que en la Ley de Murphy nunca hizo referencia al famoso caso de la tostada, aunque sirve muy bien para ilustrar su fundamento.
La Ley de Murphy, obviamente nunca demostrada más allá de la empírica, fue descrita hace 61 años por Eduard Murphy, un ingeniero de la Fuerza Aérea de los Estados Unidos, y su enunciado más o menos literal es el siguiente: Si algo puede salir mal, saldrá mal.

Hace unas semanas, en El mainframe frente a sí mismo hablábamos sobre la probabilidad de que dos nodos de un clúster dejaran de funcionar a la vez. Un colega me preguntó si había estudios sobre eso y aunque no los he encontrado, ahí van algunas ideas.


¿Qué dice la estadística?

Uno de los mayores apoyos para hacer célebre la Ley ha sido el generalizado desconocimiento de la estadística. Si formulásemos la siguiente pregunta:
¿A cuántas personas hay que reunir en una sala para conseguir una probabilidad del 50% de que al menos dos cumplan años el mismo día?
Es muy probable que una de las respuestas más repetida fuese 182,5 por ser el número de días del año dividido entre dos. Probablemente habría otras más o menos variopintas como dividir 50 entre 365 o planteamientos similares, pero seguramente todas estarían muy lejos de la respuesta real.

Reuniendo a tan solo 23 personas se consigue una probabilidad ya algo superior al 50% de que entre ellas al menos dos cumplan años el mismo día. Es decir, reuniendo a 23 personas es más probable que dos cumplan años el mismo día frente a que todos tengan su cumpleaños un día diferente. Si aumentamos a  41 personas la probabilidad es ya superior al 90% y con 63 personas es ya casi total, 99%. Es decir, a partir de 63 personas es ya casi imposible que todos tengan una fecha de cumpleaños diferente.

Distribución de la probabilidad. Ley de Murphy

Llevando este mismo esquema a las TI podríamos observar que si tuviéramos, por ejemplo, una infraestructura de almacenamiento formada por 63 discos o más trabajando en paralelo y la vida útil máxima de cada disco fuera de un año tendríamos una probabilidad superior al 99% de que hubiera días en los que se rompiesen dos o más discos simultáneamente. La fórmula matemática que permite esta construcción es la siguiente:
Probabilidad de coincidir en el cumpleaños
donde 365 es el número de días del año, n el número de personas que hay en la sala y P la probabilidad
 de que al menos dos cumplan años el mismo día.


Cabina de discos
Afortunadamente, la vida útil de un disco es superior al año. Supongamos, por ejemplo, que la vida útil máxima de los discos de una cabina fuese de doce años. Es decir, tenemos la certeza absoluta de que ningún disco llegará a sobrevivir a los doce años (algo razonable, por otra parte).

Podríamos entonces afirmar que todos los discos tendrán su particular cumpleaños (el día que se rompen) en el intervalo de días [1, 365x12] (obviemos los bisiestos por simplificar).

En ese caso, tendremos una probabilidad del 50% de que habrá un día en el que se rompan dos discos cuando la cabina tenga más de 79 discos. Sorprendente ¿no? La intuición, sin duda, dice lo contrario.


Pero aún hay más

La distribución de cumpleaños de personas tomadas al azar es razonablemente aleatoria. Digo razonablemente porque hay quien dice que la probabilidad aumenta meses después de una victoria del  Athletic en Champions o, en los años '70 y '80,  tras ganar el festival de la OTI. Pero dejando eso de lado, la distribución de los cumpleaños es una variable con una distribución suficientemente estocástica.

Sin embargo, la distribución de roturas de los elementos electrónicos y sobre todo mecánicos no es tan aleatoria. Vista en su conjunto sigue una distribución aleatoria pero la probabilidad aumenta con el tiempo. Es decir, es más probable que se rompan más discos en el sexto año de vida que en el primero lo que hace que la probabilidad de roturas concurrentes aumente dado que la mayor parte de las roturas se concentrarán en un espacio de tiempo más reducido al final de la vida útil. Por tanto, atención a alargar las infraestructuras mucho más allá del tiempo recomendado por los fabricantes. Es cierto que el fabricante tendrá una querencia innata a querer renovar cuanto antes (lógicamente, más ventas) pero algo de razón puede tener si se estira demasiado.


Pero sigue habiendo más

Cuando un disco se rompe se está obligando a sus compañeros de viaje a realizar un trabajo extra, dado que la carga se mantiene pero el número de discos para atenderla es menor. Por tanto, la probabilidad vuelve a aumentar dado que ante la rotura de un disco el resto de elementos de la cabina se someten a un mayor número de operaciones de I/O lo que, sin duda, implica mayor número de movimientos de cabeza que, a su vez, implica mayor calentamiento y más probabilidad de fallo.


Y, por si fuera poco, aún hay más

Trabajo en paralelo
Al día siguiente, el técnico de sistemas sustituye el disco averiado. En ese momento, sus compañeros (a los discos me refiero), muy solidarios ellos, le indican al nuevo disco que se ponga las 'pilas' cuanto antes para asumir su parte de trabajo. Pero para ello, los discos existentes, que ya tenían una carga extra, tienen que volver a someterse a un nuevo sobre-esfuerzo dado que deben seguir dando servicio al tiempo que reparten la carga (la información) de nuevo entre todos los discos existentes (los que había más el nuevo). Y con ello, nuevamente, vuelve a aumentar la probabilidad de fallo al verse sometidos a una carga de trabajo extra.


Conclusión

Todo lo aquí expuesto es válido para una cabina de discos, para un pool de switches de comunicaciones, para un clúster de varios nodos y, en general, para cualquier infraestructura que esté basada en más de un elemento. E incluso, en sistemas monoparentales será valido para sus discos, sus slots de memoria, sus ventiladores,...


Una probabilidad baja no implica que algo no pueda ocurrir
Pero también lo es para las aplicaciones. Obviamente, habrá que buscar los elementos que afectan a la distribución de la curva y tal vez la antigüedad de los programas no sea relevante como en el caso de las infraestructuras pero, sin duda, la probabilidad de que las cosas ocurran será en la inmensa mayoría de las ocasiones muy superior a la que la intuición y el sentido común parecen indicar.

La próxima vez que nos ocurra algo que achaquemos a Murphy deberemos pensar si realmente había pocas posibilidades de que eso sucediera.

Porque después de todo, y pese a los sesudos razonamientos matemáticos, ¡la Ley de Murphy existe!


www.tonsofit.com


RSS

8 lecciones de TI aprendidas con Wikileaks



RSS

Solo un comentario antes de empezar. He sustituido el nombre de los responsables, implicados, partícipes, aludidos, palmeros y demás agentes necesarios para que exista Wikileaks por noname de forma que cada cual pueda poner a quien considere en cada caso.

1. La seguridad interna cobra fuerza

Para que haya una filtración debe haber, necesariamente, alguien con ánimo de filtrar la información. Durante años las consultoras sobre seguridad en TI se hartaron de decir que el usuario interno era potencialmente mucho más dañino que el externo, fundamentalmente porque tiene acceso a más información en cantidad y calidad.

El riesgo se define como probabilidad x impacto. Parece lógico pensar que la probabilidad de que un usuario de la casa tenga ganas de sacar a la luz información interna es menor que las ganas que pueda tener alguien  que, en el extremo, puede ser de la competencia. Pero el impacto cuando quien filtra es de la casa es demoledor.

Probablemente, el nuevo garganta profunda que ha filtrado la información (no Julian Assange, que es el mensajero) es la persona más buscada -y odiada- por los nonames. Probablemente a estas horas los nonames de todo el mundo están planteando proyectos para controlar al máximo el acceso a la información de sus usuarios internos. Porque Wikileaks no tendría materia prima si no hay alguien que hace pública la información interna de los nonames.


2. Hay que vigilar los circuitos de información al exterior

Otro aspecto muy importante sobre la seguridad que tomará fuerza en un futuro cercano es el de la definición de circuitos de información. Los analistas llevan años insistiendo en la menor seguridad de la información no estructurada (archivos en red, gestores documentales, ...) frente a la información albergada en bases de datos, pero aún así, resulta increíble que la información sensible de uno de los mayores nonames pueda salir con tanta facilidad de sus sistemas.

Hoy día hay tecnología más que de sobra para hacer que cualquier información permanezca cifrada en su repositorio y únicamente se haga de nuevo legible cuando se consulta por parte de quien puede hacerlo en tiempo y forma. Si esa información sale de su repositorio a un CD, un email, un pendrive, a un filetransfer,... será automáticamente cifrada de nuevo.

Sin duda, Wikileaks hará que los sistemas DRM (gestión de accesos a medios digitales) se potencien de forma explosiva en las grandes organizaciones, sobre todo en aquellas donde los nonames tienen más que esconder.


3. El Open Government es, en parte, solo marketing

Wikileaks pone de manifiesto que el gobierno abierto es cierto sí y solo sí se publica únicamente aquello que noname quiere que se publique y no lo que tiene valor para los ciudadanos. Las filtraciones exponen, por ejemplo, informes geopolíticos pagados con dinero público que tendrían un enorme valor si su conocimiento se democratizara.

En primer lugar porque disponer -no solo por parte de los nonames- de la información en tiempo y forma permitiría, en ocasiones, hacer cambiar el rumbo de la historia.

Y en segundo lugar porque evitaría, por ejemplo, el establecimiento de negocios en ciertas partes del planeta que, según el informe, se conoce que son polvorines sociales, políticos o militares. El mercado funciona de forma eficiente cuando la información está disponible para todos por igual y no solo para unos pocos, los nonames. Si los informes se pagan con dinero público deben ser públicos.


4. La guerra cibernética es una realidad

A finales de septiembre de este año EEUU lanzaba Cyber Storm III, un simulacro de ataque cibernético. Apenas dos meses después, a primeros de noviembre, Europa hacia lo propio con la operación Cyber Europe 2010.

Es evidente que las guerras a base de tecnología son ya una realidad a juzgar por lo en serio que se lo toman los nonames. Y lo son aún más si quien debe garantizar la seguridad, o sea noname, es quien toma la iniciativa en los ataques. Todos y cada uno de los proveedores de servicios de alojamiento y DNS que han ido dando albergue a Wikileaks han sido atacados mediante técnicas de DDoS (Denegación de Servicio) hasta que han dejado de publicar los contenidos proscritos.



El último ha sido EveryDNS que finalmente y a la fuerza ha tenido que ceder a las pretensiones de noname. Su mensaje es claro y contundente: The interference at issues arises from the fact that wikileaks.org has become the target of multiple distributed denial of service (DDOS) attacks. These attacks have, and future attacks would, threaten the stability of the EveryDNS.net infrastructure.


5. El respecto a la protección de datos es, cuando menos, cuestionable

Las filtraciones dejan a las claras el nulo cumplimiento de la legislación existente sobre protección de datos de carácter personal por parte de los nonames. En algunos de los documentos publicados aparecen descripciones sobre la personalidad, forma de ser, costumbres, formación, etc. de personas concretas e identificables.

El apartado 1 del artículo 24 de la LOPD establece que un fichero de datos de carácter personal no estará sujeto -en parte- a dicha ley cuando afecte a la Defensa Nacional, a la seguridad pública o a la persecución de infracciones penales. No creo que sea de aplicación todo eso si de lo que se trata es de describir a otros nonames, en ocasiones de segunda fila en países también de segunda fila.

La otra posible objeción a la necesidad de cumplir con la LOPD sería decir que esos documentos tenían fines policiales de acuerdo al apartado 2 del artículo 22. En ese caso, las exenciones a la ley están limitadas a aquellos supuestos y categorías de datos que resulten necesarios para la prevención de un peligro real para la seguridad pública o para la represión de infracciones penales, debiendo ser almacenados en ficheros específicos establecidos al efecto, que deberán clasificarse por categorías en función de su grado de fiabilidad. Dudo mucho que esos informes se hayan hecho con el fin de enjuiciar a las personas que en ellos se describen.

El incumplimiento de la ley sobre protección de datos de carácter personal es absolutamente evidente. Y tiene doble delito que sea el mismo noname que promulga la ley quien flagrantemente la incumple.


6. No está claro qué entiende cada cuál sobre Neutralidad en la Red

Los nonames llevan meses debatiendo sesudamente si los proveedores de acceso a Internet deben priorizar un tipo de tráfico u otro, es decir, si es más importante el tráfico IP de un vídeo de YouTube, el tráfico del Wall Street Journal o el tráfico de una red P2P de descargas.

Al mismo tiempo, esos mismos nonames no tienen mayor problema en, no ya penalizar el acceso a ciertos contenidos, sino simplemente en censurarlos amenazando e incluso atacando a los proveedores de servicios que les dan albergue. Durante algún tiempo creímos que los nonames de occidente eran diferentes de los gobernantes de algunas dictaduras asiáticas en cuanto a la censura en Internet pero es evidente que únicamente faltaba que se dieran las condiciones oportunas para ver que no hay grandes diferencias.


7. Cuidado con el Cloud Computing

Los proveedores de Cloud Computing han sufrido un varapalo enorme en su marketing. El caso Wikileaks pone en entredicho la seguridad de los sistemas de TI de las compañías soportadas sobre Clouds públicas ante acontecimientos sociales o políticos que incomoden a los nonames. Las presiones de toda índole sobre los proveedores de Cloud han hecho aflorar algunas condiciones leoninas según las cuales se reservan la potestad de interrumpir el servicio sin previo aviso.

En este caso, la lección aprendida es que basar toda la informática en un proveedor externo puede llegar a condicionar la supervivencia misma de la empresa. Caso de optar por este modelo se debe garantizar con absoluta exquisitez que es posible la vuelta atrás y/o el cambio de proveedor de Cloud en un tiempo prudencial. Si el proveedor de Cloud deja en la calle a su cliente éste deberá ser capaz de obtener cobijo en un nuevo proveedor y/o interiorizar sus sistemas en el menor tiempo posible. No olvidemos que el Cloud no es más que una nueva forma de hacer outsourcing.


8. Internet dispone de potentes recursos anti-censura

Mientras noname hace verdaderos esfuerzos para limitar la libertad de expresión intentando expulsar a Wikileaks de Internet, la propia Internet se defiende creando cientos de sitios espejo del principal. En este mismo instante (2010-12-11Wikileaks.ch está replicado en 1.697 mirrors o sitios espejo de forma que seguirá en línea aún cuando los nonames consigan sus objetivos con el dominio principal. 

En gran parte los sitios espejo están soportados por organizaciones sin ánimo de lucro y particulares porque las empresas, en su mayoría, están asustadas frente a la amenaza de los nonames.

Resulta paradójico que el diseño y concepción militar de Internet (gracias a la total descentralización ideada por DARPA para combatir ataques convencionales) sea ahora el principal aliado de la sociedad civil y, por tanto, el mayor escollo y enemigo de los nonames.


Final

Se me plantea alguna otra lección aprendida pero como no soy capaz de encontrarle encaje con la tecnología mejor lo dejamos en este punto.

Hace unos días, comentando el asunto con algunos colegas, me plantearon que sería curioso hacer la reflexión al revés, analizando el caso Wikileaks desde el punto de vista de los nonames. Al menos se me ocurren delitos como revelación de secretos oficiales y militares, delitos contra la privacidad de las comunicaciones o delitos contra las leyes de protección de datos (los mismos que los dueños de los documentos originales). Sería, como poco, divertido. A ver si alguien se anima.




RSS

El mainframe frente a sí mismo



RSS

IBM System z Imaginemos: Una compañía de reciente creación nos ha encargado la tarea de asesorarle respecto a qué tipo de sistemas deberán soportar sus procesos de TI. La elección es basar todo en un mainframe o utilizar un clúster de servidores.

Pero, ¿por qué elegir? Lo mejor, sin duda, un clúster de mainframes; dos o más mainframes sysplex trabajando en modo cooperativo. Por desgracia, la necesidad de elegir viene determinada porque los presupuestos no son infinitos.

Antes de empezar, fijemos un poco la terminología. Por mainframe se entiende una máquina System z de IBM. A su vez, por servidores se entiende servidores -valga la redundancia- x86 o x64 de gama alta de Intel o AMD, familia System p de IBM, Superdome de HP o servidores con tecnología Sparc de Oracle.

Analicemos la elección desde diferentes puntos de vista.


Seguridad

Todo debe seguir en pie
Si le preguntásemos a un director de TI de una entidad financiera o de una gran superficie probablemente diría que lo más importante en su terminal financiero o en su terminal de punto de venta es la confiabilidad del sistema; la resiliencia que dicen los psicólogos. Y hablando de resiliencia, la capacidad para sobreponerse a problemas de un mainframe no tiene parangón. Los técnicos de sistemas de mainframe habitualmente presumen de que casi la mitad del código de zOS está destinado a recuperarse de forma automática ante errores o situaciones no previstas, algo muy diferente de lo que ocurre en cualquiera de los sistemas operativos habituales en servidores.

Pero ¿qué ocurre si le hacemos la misma pregunta a un pasajero de un avión? ¿Preferirá volar en un avión con un único sistema altamente tolerante a fallos o preferirá dos o tres sistemas un 1% menos tolerantes individualmente trabajando en paralelo y dándose cobertura de fallo entre ellos? Antes de contestar, analicemos las disponibilidades.

Cuando se habla de que un sistema es más seguro que otro se manejan porcentajes pírricos de diferencia que en ocasiones no llegan ni al 1%. Un mainframe puede presumir de cinco '9' de disponibilidad. Es decir, en el caso del quinto '9' (disponibilidad del 99,999%), el tiempo máximo de parada es de 5 minutos y 26 segundos al año. Todo ello, lógicamente, sin contar los problemas asociados a los problemas generados por los técnicos que son habitualmente mucho mayores, bien por fallos o bien por paradas planificadas.

Cuadro de mandos de un avión. Todo está duplicado
Obsérvese el eje de simetría vertical,
es decir, el clúster de sistemas
Contestemos ahora a la cuestión que dejamos pendiente. ¿Alguien se subiría a un avión sabiendo que todo depende de un único sistema que tiene una tasa de fallo de cinco minutos al año? La mayor parte preferirán pensar que hay al menos dos sistemas que, aún teniendo una tasa de error mayor  (por ejemplo, un '9' menos), combinados, dan una probabilidad de fallo muy inferior. De ahí, que todos los sistemas de un avión tengan siempre al menos un mecanismo electrónico doble, unido casi siempre a la posibilidad de hacer lo mismo de forma manual.

Lo sé, aún falta añadir la Ley de Murphy al cóctel (todo lo que pueda fallar, indefectiblemente fallará y si puede hacerlo a la vez, lo hará) pero esta Ley aplica por igual para todos los modelos que podamos plantear.



El ecosistema

Un aspecto enormemente importante, tanto o más que la resiliencia de la máquina, es la capacidad de sobreponerse a fallos del ecosistema. Y por ecosistema se entiende todo lo que rodea a las máquinas y que tiene que ver con su funcionamiento. En definitiva, todo aquello en lo que su no existencia implique pérdida de servicio.

Hay elementos vitales como el suministro eléctrico o la refrigeración, la ubicación del CPD, la probabilidad de desastres naturales en función del emplazamiento, el sabotaje,... Muchas de las grandes compañías del entorno comenzaron a percibir este hecho y a proteger su ecosistema a raíz de las inundaciones de Donostia afectando al Banco Guipuzcoano o el incendio eléctrico en Barajas dejando sin servicio todo el CPD de Iberia.

Por tanto desde el punto de vista de ecosistema parece más razonable pensar que es mejor tener un clúster con nodos geográficamente distantes y diferentes proveedores de energía a tener todo en una única ubicación.


Rendimiento

Mare Nostrum de IBM
Supercomputador Mare Nostrum de IBM
Barcelona Supercomputing Center
El rendimiento es, sin lugar a dudas, muy superior en los clústeres que en los grandes mainframes. Para ello únicamente hay que atender a dos hechos.

El primero es que la lista Top 500, en la que se sitúan los 500 súper-computadores más potentes del mundo, está basada al 100% en mega-clústeres. Estos clústeres funcionan haciendo creer al software que todos los servidores que lo integran conforman una única máquina aunque realmente no es así. Por ejemplo, el número uno actual, el súper-computador chino Tianhe-1A, está basado en procesadores Intel x64, pero en cantidades ingentes (14.336 procesadores). Por cierto, es la primera vez que China dispone de un súper-ordenador en la primera posición de la lista.

Habrá quien piense que estos súper-computadores solo sirven en el ámbito científico, que suele ser muy diferente del mundo real. Pues el otro aspecto que invita a creer que el rendimiento es superior en los clústeres es que la mayor parte, por no decir todos, los sitios Web de Internet situados en el Top 20 respecto a visitas basan su infraestructura en clústeres hadoop. Estos clústeres basan su potencia de cálculo no en dos, tres o diez nodos sobre servidores sino en cientos o miles de nodos basados en hardware, habitualmente, más cercano al entorno doméstico; en muchos casos simples PCs. Da igual que se rompan los discos de 50 PCs al día, siempre habrá otros cien mil funcionando. El número de compañías que apoyan esta tecnología va en aumento porque parece que les salen las cuentas de coste-rendimiento. Ahí va la lista, aunque la verdad, me parece que a medio plazo no es la solución.


Coste

El coste es, probablemente, la clave de todo. Durante años el gasto en TI ha estado aumentando el doble que el PIB mundial. Este desfase puede justificarse en cierto modo desde la óptica de aportación al negocio, y desde ese punto de vista es posible encontrar una explicación razonable a ese incremento durante los 20 últimos años. Pero esta justificación es aplicable únicamente a las aplicaciones dado que, salvo honrosísimas excepciones, las inversiones en infraestructura de TI raramente aportan valor al negocio.

Gasto en TI frente al PIB mundial

Es decir, la obligación de cualquier responsable de TI es intentar reducir al máximo las inversiones y el gasto corriente en infraestructuras para dedicar el máximo esfuerzo inversor al desarrollo de aplicaciones que se ajusten y potencien al máximo el modelo de negocio. Eso sí es crear valor.

Y en este punto es donde los mainframes están encontrando mayores dificultades. Los costes de bajada de bandera son significativamente más altos que los que se dan en los modelos basados en clústeres de servidores.

La mejor defensa es un buen ataque. Y quizá por ello, dado que los servidores están amenazando la hegemonía del mainframe, lo mejor es atacar donde les duele. IBM ha planteado su nuevo mainframe z196 de forma que, gracias al virtualizador de hardware KVM, puede ejecutar máquinas virtuales x86 basadas en Linux (ya disponible) y próximamente también Windows (previsto para finales de 2011). Es un paso lógico y muy acertado en el que únicamente falta saber qué éxito tendrá en un mercado dominado por VMWare con Hyper-V a cierta distancia.
Nunca es tarde, pero es increíble que IBM haya tardado tantos años -incluso décadas- en acercar la virtualización de hardware a la plataforma x86 teniendo en cuenta que fue ella quien inventó y desarrollo esta tecnología hace casi cuarenta años con el sistema operativo MVS (1974) en sus mainframes.


Tecnología

En relación a la tecnología, centrando la tecnología en el microprocesador, no parece haber diferencias significativas. El rendimiento de cada procesador se sitúa a la cabeza en función del mes en que se mida y dependiendo del tiempo que haya pasado desde el último lanzamiento de producto de cada fabricante.

Respecto a la proyección a futuro, los equipos basados en Intel y AMD parecen tener el futuro garantizado dada la enorme cuota de mercado y, con ello, la gran capacidad de inversión en I+D. Por su parte, IBM, a sabiendas de que el mercado de mainframes no era suficiente para mantener la masa crítica necesaria para fabricar procesadores, ha sabido llegar a acuerdos en un mercado de consumo, el de los fabricantes de consolas. Así, tanto la PlayStation 3 de Sony como la Xbox 360 de Microsoft incorporan exactamente los mismos chips con tecnología Cell que lleva el mejor y más avanzado de los mainframes. Por eso no debería sorprender que el Departamento de Defensa de EEUU haya creado un súper-computador (ocupa el puesto 33 en el ranking Top500) a base de interconectar 1.700 PlayStation 3.

Sin embargo, el futuro de HP Integrity con sus procesadores Itanium no parece estar tan claro dado que HP se ha quedado solo en su utilización. Itanium se desarrolló con la mente centrada en la sustitución de x86 y x64 pero la realidad ha sido otra bien diferente. Y lo mismo le ocurre a Oracle con su tecnología Sparc dado que tendrá que recuperar los últimos años de declive tecnológico de Sun.


Complejidad

Hay un aspecto diferenciado del coste pero que repercute directamente en él y es la complejidad en el manejo de las infraestructuras de TI. Lógicamente, repercute en el coste dado que a mayor complejidad mayor número de personas para gestionar los sistemas y, no olvidemos, el coste de personal de TI es una de las partidas más importantes -y necesarias- de gasto en la gestión de un CPD.

El siguiente gráfico muestra la previsión realizada en 2007 por IDC respecto a cómo aumentan los gastos de TI a medida que aumenta la base instalada, es decir, el número de servidores. Se observa que tanto el gasto en servidores como el gasto en energía permanecen relativamente constantes mientras que el gasto de gestión y administración (personal, básicamente) aumentan de forma muy importante.

Consumo de energía en sistemas de TI

Sin embargo, la previsión de IDC no era del todo acertada dado que la virtualización de hardware ha conseguido contener esos incrementos de forma muy notable.

Del mismo modo, el buen hacer de los responsables de infraestructuras han hecho que los servidores, lejos de proliferar, hayan reducido su número de forma drástica en los CPDs. Es muy habitual hoy en día tener entornos de base de datos o servidores de aplicaciones totalmente centralizados sobre una única infraestructura para toda la organización.

Un ejemplo muy evidente del cambio hacia la centralización en el entorno de servidores es el paso dado por Oracle con su Database Machine (Exadata). Oracle centró su estrategia durante años en los sistemas basados en grid. Todo debía estar en muchos nodos, pequeños, pero abundantes en número. Ahora propugna un cambio de paradigma con Exadata según el cual toda la gestión de BBDD debe estar centralizada en una única máquina en la que la propia Oracle provee el software, capacidad de procesamiento, almacenamiento y comunicaciones. Cualquiera diría que Oracle está intentando reinventar el mainframe sobre hardware de servidores.


Corolario

Aunque a IBM no le gusta demasiado dar las cifras del número de mainframes que están en línea, algunos estudios apuntan a que el número de máquinas se sitúa en torno a las 10.000 a nivel mundial. Nunca hubo tantas como ahora..., ni tan pocas como ahora. Básicamente, porque el número está estancado desde hace casi dos décadas.

El concepto de resiliencia unido a los enormes costes de arrastre en forma de migraciones masivas de aplicaciones hace que los proyectos de migración de los mainframes se encuentren en muchos casos en lo que un físico denominaría equilibrio inestable.

Los servidores son cada vez más estables y seguros. Es cierto, los mainframes lo son aún más pero cualquier organización mide los riesgos y después elige la posición más óptima respecto a ellos. Y en esa elección los costes son una de las piezas clave a la hora de determinar qué riesgos se pueden asumir y cuáles no.

Los mainframes no van a desaparecer. Todos los profetas (IDG, Gartner, Forrester, ...) anunciaron su muerte durante años y, obviamente, se equivocaron. Pero creo que a día de hoy hay hardware y software que puede competir de igual a igual con la seguridad y resiliencia de los mainframes igualando o superándoles en el resto de valoraciones. La batalla por el mercado de los mainframes menores de 2.000 MIPS, donde están probablemente más del 50%, ya ha comenzado.


www.tonsofit.com


RSS

¿Debería Internet aprender a olvidar?



RSS

Sinapsis cerebral
Por un momento, comparemos la capacidad de Internet con la de un cerebro humano. Y aunque cualquier neurólogo se echaría las manos a la cabeza, equiparemos neurona con página web (no dominio) y la sinapsis neuronal con un link.

El cerebro humano dispone aproximadamente de cien mil millones de neuronas y cada una de ellas está comunicada con otras diez mil creando redes o dominios de conocimiento. Respecto a Internet, a finales de 2008 Google decía en su blog que tenía en sus índices más de un billón (europeo) de páginas, es decir, diez veces más páginas que el total de neuronas de un cerebro humano. Probablemente, a finales de 2010 habrá que multiplicar esta cifra por 2 o por 3 por lo que, a buen seguro, estaremos cerca de los 2,5 billones de páginas o contenidos diferentes.

Curva de crecimiento de Internet
Pero Internet no tiene únicamente un crecimiento explosivo en cuanto a contenidos por dominio sino que el número de dominios crece igualmente de forma exponencial. La curva que nos facilita Netcraft muestra como la pendiente de crecimiento se incrementa en cada periodo llegando hasta los 250 millones de dominios registrados a finales de 2010.

Y qué decir del crecimiento en volumen de almacenamiento en Internet. Más allá del típico chiste de "méteme Internet en este disquete", lo cierto es que hay quien se ha tomado la molestia de medir lo que ocupa el volumen de información que está online en Internet. Un reciente y altamente recomendable estudio de IDC sobre almacenamiento estima que actualmente hay un volumen de 0,9 Zetabytes y se llegará a un Zetabyte aproximadamente coincidiendo con el final de 2010 (un Zetabyte son mil Exabytes, o un millón de Petabytes, o mil millones de Terabytes o un billón de Gigabytes, o sea, mucha, mucha información).

Estimación del volumen del almacenamiento de Internet en 2020
Y las previsiones para 2020 son aún más radicales porque se estima que en diez años el volumen de almacenamiento necesario será de 35 Zetabytes, si bien es cierto que de esos 35 Zetabytes se cree que solo el 25% será contenido único (es el ratio actual). El otro 75% son copias y copias de copias de contenidos ya existentes.

Aunque se prevé un gap entre el espacio disponible y el necesario, este crecimiento no será un problema en sí mismo. Los costes del almacenamiento por Gigabyte bajarán al mismo ritmo al que crezcan los incrementos de consumo, como siempre lo han hecho. Además, se potenciarán tecnologías como la deduplicación o la virtualización del almacenamiento. En definitiva, que es previsible que la tecnología de almacenamiento no sea un stopper para el desarrollo de Internet.


Volvamos al cerebro

El cerebro humano se las apaña bastante bien con apenas cien mil millones de neuronas. Y dado que la capacidad de almacenamiento está limitada el cerebro ha aprendido a olvidar. Por eso, se distinguen al menos tres tipos de sucesos en la memoria:

  • La memoria a corto plazo con experiencias que se recuerdan momentáneamente pero se olvidarán con el paso del tiempo. Por ejemplo, los números de la lotería primitiva de esta semana. 
  • La experiencias que han llegado a la memoria a largo plazo pero no se recuerda que se tienen. Por ejemplo, no se puede recordar la cara de alguien que hace 20 años que no se ve pero si se vuelve a estar junto a él se le identifica sin problemas (luego el dato estaba ahí).
  • Las experiencias que están en la memoria a largo plazo y se recordarán de por vida. Son aquellas que han moldeado la plasticidad el cerebro, por ejemplo, los mismos números de la lotería primitiva en el supuesto de que nos haya tocado.

Olvidar no es un proceso simple, tampoco lo es para el cerebro. De hecho, no se puede olvidar algo por mucho que se intente, porque cuanto más se intenta más se focaliza la atención en ello y, por tanto, más probabilidad hay de que termine estando en la memoria a largo plazo. Primera pregunta: ¿es aplicable esto a Internet? ¿Puede Internet olvidar contenidos cuando sepa que ya no son relevantes?


Consideraciones legales

La mayor parte de los países desarrollados disponen de legislación específica para proteger la intimidad de las personas frente a la capacidad tecnológica de las empresas para crear bases de datos de todo tipo y condición. En muchos casos estas leyes regulan el almacenamiento en base a criterios objetivos como el tipo de información (edad, capacidad económica, nivel de estudios, sexo, religión, ideología,...) pero siempre existen algunos un tanto subjetivos como la "proporcionalidad". Es decir, que el almacenamiento de cierta información debe ser proporcional al uso que se da de ella. En ese sentido, no es proporcional, por ejemplo, que nuestro operador de telefonía mantenga en sus bases de datos nuestra ideología política o religiosa.
Otro factor de proporcionalidad es el tiempo en el que el dato está vigente y, por tanto, las empresas deben proceder a su cancelación cuando ya no lo está.

Pensemos ahora en alguien que comete un delito o, en general, ocurre algo en su vida que le desagrada personalmente. Si tiene 'suerte' su acción será publicada en medios de comunicación tradicionales y en los nuevos de Internet. Pasados, por ejemplo, cinco o diez años la noticia seguirá ahí, seguirá online para que cualquiera pueda saber lo que desee sobre su pasado. ¿Es lícito mantener online esa información diez años después?

La Unión Europea está ya iniciando la regulación de estas situaciones y es previsible que pronto exista una directiva sobre el derecho al olvido en las redes sociales. Es decir, el ciudadano tendrá derecho a que no exista información sobre él en las redes sociales.

Facebook te ve
Esto tiene unas implicaciones legales muy fuertes y unas implicaciones técnicas desbordantes. Países como Alemania ya han regulado legalmente el que los profesionales de las empresas de selección de personal no puedan acudir a las redes sociales para recabar información sobre los candidatos. Es esta una ley muy ambigua en su redacción y brutalmente compleja en su puesta en práctica. Porque, ¿cómo impedir que alguien busque en Facebook información sobre el candidato?

En el extremo de la legalidad, ¿deberían los medios de comunicación dejar de mantener online las noticias en las que se citan personas una vez haya transcurrido un tiempo estipulado? Y ya puestos, ¿afecta solo a medios de comunicación o es aplicable a Internet en su conjunto? De acuerdo, hay derechos básicos como el derecho a estar informado y los derechos de prensa en general pero, ¿aporta algo conocer que nuestro vecino realizó una determinada acción -de la que tal vez no se siente orgulloso- hace quince años o es puro voyerismo?

Hace un par de meses el presidente ejecutivo de Google decía que en el futuro los jóvenes cambiarán de nombre para escapar de su pasado. Fue muy criticado por ello pero qué duda cabe que decía algo con mucha lógica. Lo que no decía es que su dardo iba dirigido a Facebook, uno de sus principales enemigos en la lucha por el liderazgo de Internet, y que su buscador, Google, es uno de los que más y mejor participa en que Internet no sepa olvidar.

Pregunta número dos: ¿debe tener Internet procedimientos de privacidad de forma masiva y es viable técnicamente?

Gente feliz
Dadas las limitaciones, el cerebro ha aprendido a recordar únicamente lo que aporta valor para el futuro descartando el resto (porque el saber sí ocupa lugar). Igualmente, descarta con mayor celeridad los sucesos no agradables de cara a vivir más felices en el futuro. Está demostrado que hay mayor liberación hormonal para fomentar la memoria a largo plazo ante acontecimientos y vivencias agradables que frente a aquellas que no encajan en nuestra escala de valores. Pasadas unas semanas, recordamos con mayor profusión de detalles la cara de un niño feliz y sonriente que una foto de un animal o persona herida.

Pregunta número tres: ¿estamos creando infelicidad a escala planetaria manteniendo online y de por vida los hechos desagradables (aunque también los agradables) de nuestras vidas?

Dificil tarea tiene el legislador para poner en orden todo esto...


www.tonsofit.com


RSS

El software ¿y la democracia?



RSS

Hace unas semanas, en Microsoft: el mayor impulsor del software libre, se analizaban los orígenes del software libre, su vertiginoso crecimiento y como el vacío creado en el mercado fue aprovechado por un nuevo agente, la comunidad, para crear un retador creíble frente al establishment.

Después, en Y el software libre se hizo negocio... se analizó la situación actual del software libre, un mercado formado casi en exclusiva por empresas que se abrazan a este tipo de software por diferentes razones, todas ellas unidas por un denominador común: Business is business.

Hoy toca hablar sobre la miopía de algunas administraciones públicas a la hora de lanzar proyectos basados en software libre, bien sea para crear un sistema operativo con el que parecen querer competir con los grandes fabricantes del software, bien para reservar partidas económicas para consumo exclusivo en software libre o bien para lanzar oficinas de apoyo o impulso a este tipo de software. Intentaremos demostrar como lejos de ayudar, hacen un flaco favor a su impulso real en la sociedad, porque no hay nada peor para cualquier producto o servicio que hacerle crecer de forma artificial sin enfrentarle a la competencia de los Mercados.

El doble papel de la Administración frente al software libre

El papel de las administraciones públicas frente al software libre debe medirse desde dos puntos de vista completamente diferenciados. En primer lugar, el obvio, el de su uso a nivel interno. Debe analizarse su comportamiento ante él en términos de coste total de propiedad y aportación de valor tal y como lo haría una corporación privada. En segundo lugar debe analizarse su postura (apoyo, rechazo o no interferencia) desde una perspectiva institucional.

Vayamos con el primer punto que es el más simple. Cabe pensar que no hay razón aparente para que las administraciones públicas tengan un comportamiento frente al software libre diferente al que pudiese tener una compañía privada. En ese sentido, deben medir este tipo de industria de acuerdo a los mismos parámetros, valorando el software en función de su coste total y aportación de valor y no de su procedencia, si bien es posible que añadan algún parámetro adicional.

Un ejemplo de parámetro adicional es el apoyo a las lenguas minoritarias. Qué duda cabe que una compañía de TI no tendrá demasiado interés en traducir sus productos a lenguas minoritarias cuando el esfuerzo para hacerlo resulte superior a la rentabilidad esperada. Eso parece lógico, siempre y cuando el interés y la rentabilidad atiendan a parámetros puramente económicos. Pero ¿qué ocurre cuando la comunidad de software libre dice que sí está dispuesta a traducir a esos idiomas sus productos equivalentes?

Cuando eso ocurre y la Administración en cuestión amenaza con cambiar a productos de software libre sucede que, súbitamente, los grandes fabricantes de TI muestran un enorme interés por las lenguas minoritarias. La competencia hace que los mercados evolucionen.

Volviendo de nuevo a la cuestión esencial, las Administraciones Públicas, cuando se trata de su uso a nivel interno, deberían tratar al software libre como a un competidor más, midiendo las ventajas y desventajas de su uso tal y como lo haría la empresa privada. En palabras de la Ley de contratos del sector público, dando prioridad a la opción más económicamente ventajosa que, tal y como indica la propia Ley, no es necesariamente la más barata sino la que tiene una mejor relación calidad-precio.

Posición institucional frente al software libre

Parece obvio que no hay razón para rechazar institucionalmente al software libre. Resultaría extraño que una administración pública rechazase una nueva forma de industria. Por tanto, la cuestión se centra en si debe impulsarlo o debe ser neutral. Para ello, se analizarán las potenciales ventajas desde el punto de vista de creación de tejido industrial y aumento de las inversiones locales, la balanza comercial con el exterior y la percepción de mayor democracia y libertades.

La mayor parte de las grandes compañías de software plantean modelos según los cuales ellas ponen el software y el conocimiento del producto a alto nivel dejando a los integradores locales el trabajo de adaptación, implantación y mantenimiento. Este es el modelo de compañías como, por ejemplo, IBM, HP, SAP, Oracle o Microsoft que rara vez compiten en proyectos con los integradores locales. Con ello consiguen centrarse en lo esencial –su producto- cuidando y protegiendo al mismo tiempo el negocio de los integradores que les hacen la labor comercial frente a sus potenciales clientes. Se consigue así una simbiosis entre fabricante e integrador que parece ser de interés para ambos.

En el caso del software libre a nivel empresarial el modelo es exactamente el mismo e incluso aún más potenciado. Por tanto, desde el punto de vista de aumento del tejido industrial e inversiones no parece haber grandes diferencias respecto a cuál de los dos modelos es mejor. Ambos trabajan con integradores que crean empleo y tributan localmente. Lo sé, lo sé, las licencias no tributan localmente pero seamos pacientes que ahora vamos con ello.

En cuanto a las licencias cabe analizar la balanza de pagos frente a los países donde residen las compañías de software. Es obvio que en disposición de escoger cualquiera elegiría no tener que hacer frente a pagos exteriores dado que esto mejoraría la balanza comercial con esos países que, en el caso de la industria del software, son principalmente EEUU y algún país europeo –Alemania y Reino Unido- a una enorme distancia.

La historia está repleta de casos en los que un bloqueo fronterizo resulta de interés en el corto plazo pero realmente nefasto en el medio y largo. Potenciar el software libre por el mero hecho de no empeorar la balanza de pagos (asumamos en este supuesto que el software comercial es de mayor calidad) provocaría inevitablemente un corralito tecnológico (en referencia al corralito financiero argentino) en la medida en que las empresas locales tendrían acceso a peor tecnología que las exteriores.
Esta forma de actuación, en una economía globalizada, provocaría una espiral de empeoramiento tecnológico que mermaría la productividad global de la zona de influencia de la administración pública. Sería una muy curiosa forma de generar tejido industrial la de esa Administración, porque desarrollo tecnológico y productividad están absolutamente relacionados. Si se dispone de peor tecnología se están sentando las bases para una peor productividad, ergo peor competitividad con las empresas extranjeras, ergo se va directo al abismo.

Pero, sin ser poco lo anterior, aún hay más. Primar un determinado producto o servicio en función del lugar de su producción y no en función de su calidad es una forma muy sutil de control arancelario. En ese sentido, dejando de lado el hecho de que podría no estar conforme a las normas internacionales sobre libre comercio, ni a la Directiva que regula la libre circulación de bienes y servicios en la UE, ni a la Ley que regula la contratación en el sector público (LCSP) y no valorando tampoco el hipotético empeoramiento tecnológico indicando anteriormente, la historia demuestra que la política de no importar es también una política de no exportar. Uno de los teoremas más importantes de la Teoría del Comercio (Abba Lerner, 1936) demostró que el gravamen sobre las importaciones es exactamente equivalente al gravamen sobre las exportaciones. En ese sentido, la decisión de primar un determinado software en función de su producción interna no beneficia en modo alguno al conjunto del PIB visto de modo global. Nuevamente, curiosa forma de generar riqueza la de esa Administración.

Finalmente, se llega a la cuestión por la que, desgraciadamente, con mayor frecuencia aparece el software libre en los medios de comunicación: líderes políticos esgrimiendo el aumento de la democracia tecnológica asociado al software libre. A modo de ejemplo se incluye este link sobre software sostenible y democrático (ahí es nada) como muestra de despropósito mediático. Se cita un enlace pero se cuentan por toneladas en Internet; propongo la búsqueda "software democracia" si se tiene tiempo libre para leer absolutos sinsentidos.

La cuestión de fondo es dilucidar si es lícito usar los derechos de copyright como medio para garantizar el negocio. Si en lugar de software se hablase de terrenos resultaría escandaloso negar el derecho a la propiedad privada. Bien es cierto que hay una diferencia fundamental entre un terreno y el software: si alguien cede, vende o regala un terreno deja de tenerlo. Sin embargo, si alguien cede, vende o regala un software ambos lo tienen. Maximizando este razonamiento de que lo intangible no puede tener derechos de propiedad han proliferado líderes políticos y sociales que abanderan el software libre como una nueva forma de democracia.

En un elevado número de ocasiones –aunque por supuesto no siempre es cierto- estos líderes trabajan en regiones sin pasado tecnológico que habitualmente corresponden a zonas no precisamente en la cúspide de la renta per cápita. Y hay varias explicaciones para que esto sea así. La primera es que todos esos lugares no parten de una potente infraestructura de TI previa y por tanto los costes de arrastre en el caso de una migración (afectan y mucho al TCO) son prácticamente inexistentes. La segunda es que no disponen de músculo financiero para abordar fuertes inversiones en TI y ven en el software libre una forma de iniciar el trayecto. Y la tercera, y preocupante, es que intentan buscar réditos mediáticos asociando el software libre a un aumento de las libertades.

Pongamos un ejemplo: la Junta de Extremadura. Su decidida apuesta por las tecnologías de software libre, vendidas políticamente a bombo y platillo como una nueva forma de entender la sociedad en la que el ciudadano tendría mayores cotas de libertad y democracia, no se han visto adecuadamente correspondidas a tenor de las cifras ofrecidas por varios organismos del Estado. En concreto, se encuentra a la cola de indicadores como el número de patentes, empresas y personas ocupadas en sectores de alta tecnología, número de doctorados o inversión en I+D.

Fuente: Oficina Española de Patentes y Marcas (OEPM). Estadísticas de Propiedad Industrial.

Fuente. INE. Ocupados en sectores de alta tecnología por Comunidades Autónomas y sectores

Fuente: INE. Principales indicadores de I+D en los sectores de alta tecnología por Comunidades Autónomas, tipo de indicador y total / %

Es decir, la decisión de fomentar el software libre no se acompañó de un plan real para potenciar la tecnología, lo que, en la práctica deja el discurso inicial en algo bastante cercano al simple juego político.

Como añadido, resulta cuando menos curioso que el tejido industrial de Extremadura no haya seguido la línea emprendida por sus dirigentes a tenor de los datos del INE, donde se muestra que las empresas Extremeñas, en clara contraposición a sus líderes políticos, no son demasiado proclives al uso del Linux. En esta comparativa Extremadura es la Comunidad Autónoma con menor presencia de Linux en las empresas y es tan solo superada en orden descendente por Castilla-La Mancha.

Fuente: INE. Variables de uso de TIC (a enero de 2008) por comunidad autónoma

¿Cabría entonces preguntarse si los empresarios extremeños no han sabido ver ni entender las enormes ventajas asociadas al uso de Linux tal y como fueron anunciadas por sus dirigentes?

Tras el análisis de estos indicadores cuesta pensar que el software libre traerá más libertad y democracia a los ciudadanos de Extremadura tal y como aventuraban algunos de sus líderes políticos hace tan solo unos años.

Por el contrario, otras administraciones optarán por soluciones de software comercial y no por ello se le deberá dejar de exigir el mismo respeto a los estándares. Independientemente de la tecnología con la que esté desarrollada la solución, el usuario, en este caso el ciudadano, deberá tener la libertad para acceder a los sistemas de la e-Administración con las herramientas –Open Source o no- que él libremente decida. Es decir, independientemente de que la solución esté basada en tecnología de IBM, Microsoft, SAP, Oracle o de cualquier otro fabricante, el usuario deberá ser libre para decidir si su conexión se realiza con Internet Explorer, Firefox, Chrome o lo que él soberanamente decida.

Ambas alternativas, la de optar por una plataforma de software libre como la de optar por una plataforma liderada por una empresa tradicional, tienen la misma validez siempre que ambas hayan sido tomadas en base a argumentos técnicos y económicos y no a supuestos ideológicos.

Parece claro, por tanto, que las Administraciones Públicas deben tratar de ser neutrales en este mercado, sin favorecer ni perjudicar al software comercial ni al software libre que, en definitiva, no ha de olvidarse, es una forma diferente de industria -soportada por empresas- del software.

Conclusiones

Para su despegue definitivo es preciso que las decisiones respecto a la implantación del software libre se separen de forma inequívoca de cualquier razonamiento que no tenga su fundamento en la excelencia técnica, en la eficiencia y en el alineamiento estratégico con las empresas. Y para ello es preciso desmarcarse de ideologías que no hacen sino sembrar dudas en un mercado –el de la informática corporativa- poco dado a aventuras frente a tecnologías probadas y maduras salvo que las ventajas para el negocio sean incuestionables.

El software libre es un negocio apoyado por una nueva forma de industria que debe ser medido de acuerdo a los parámetros habituales de rentabilidad. Eliminar esa ilógica relación entre ideologías –cualesquiera que sean- y software permitirá eliminar esa aureola underground que aún hoy le rodea. Esto, sin duda, hará que muchos directores de sistemas valoren el software libre de calidad, que lo hay y mucho, por lo que realmente es importante: su calidad. Y el software libre que no sea de calidad –que también lo hay- simplemente desaparecerá. Exactamente igual que lo que ocurre con el software comercial.

La Administración debe garantizar la libre decisión del ciudadano a la hora de elegir software libre o comercial. En ese sentido, los sistemas de la próxima e-Administración deben ser totalmente compatibles con, por ejemplo, los navegadores Firefox, Internet Explorer, Chrome o cualquier otro que irrumpa en escena y tenga un porcentaje de mercado significativo. Igualmente, la documentación debe ser intercambiada en formatos de herramientas ofimáticas soportadas por estándares de mercado cuando sean de aplicación.

Sin embargo, este principio no es de aplicación cuando de lo que se trata es de definir la tecnología con la que dichos sistemas de e-Administración deben ser construidos. En ese caso, cada Administración, en función de sus necesidades tecnológicas y de las herramientas que el mercado en sentido amplio ponga a su disposición, deberá seleccionar la solución que mejor se adapta a sus planteamientos. Y la elección no debería estar basada en si el software es libre o no sino en qué software es el más adecuado técnica y económicamente en cada caso. Por ello se debe dar a, por ejemplo, LinuxFirefox, Chrome, OpenOffice o MySQL el mismo trato que se dispense a AIX, HP-UX, zOS, Windows, Internet Explorer, Office, Oracle o DB2.

Sería deseable que el software libre dejase de ser utilizado como sinónimo de Administración más abierta, más accesible o más democrática dado que relacionar ambos conceptos tiene bastante poco rigor. La presencia o ausencia de ésta -una Administración y una sociedad abiertas, accesibles y democráticas- poco o nada tiene que ver con la presencia o ausencia de un tipo de software en concreto. La tecnología, buena o mala, difícilmente crea mayores cotas de libertad o democracia. Es la utilización de esa tecnología por parte de las personas la que hace aumentar o disminuir los niveles de bienestar social; y mezclar ética con tecnología es un cóctel complejo de gestionar. Por tanto, no parece apropiado continuar con el discurso respecto a si es más ético utilizar software libre o no libre o si la Administración debería primar a uno u otro.

Re-conclusiones

En este post, más incluso que en anteriores, he intentando ser absolutamente respetuoso con todas las ideas. No obstante, estoy convencido de que habrá quien lo interprete como un ataque al software libre. A todos ellos les pediría que vuelvan a leerlo con un poco más de atención y en su caso repasen dos lecturas previas en Microsoft: el mayor impulsor del software libre y Y el software libre se hizo negocio...
Si después de eso siguen considerando que es un ataque al software libre les pido disculpas porque no era esa mi intención y de ser así no he conseguido expresarme con la suficiente claridad.

La idea final es que potenciar el software libre de forma artificial por razones políticas es un curiosa forma de hacerle daño porque tan pronto como el interés político y su foco mediático desaparezcan (y tarde o temprano lo harán) entrará en caída libre. Los dirigentes políticos deberían potenciar siempre la mejor tecnología que esté al alcance (si es libre perfecto y si no lo es también perfecto) porque será esa la forma de aumentar la productividad y con ello la riqueza y bienestar social de su área de influencia. Es decir, las decisiones técnicas deben estar basadas en los mismos criterios que siempre han sido de relevancia: los criterios técnicos. La cita es, nuevamente, de nuestro buen amigo Perogrullo.

RSS

Los contenidos de Tons of IT están sujetos a licencia Creative Commons Reconocimiento 3.0 salvo donde se indique lo contrario.