Mostrando entradas con la etiqueta Intel. Mostrar todas las entradas
Mostrando entradas con la etiqueta Intel. Mostrar todas las entradas

Dicen que estamos en la era post-PC



RSS

Levantas una piedra y aparecen varios analistas asegurando que estamos entrando en la era post-PC; una era en la que el PC perderá protagonismo en favor de otros dispositivos como smartphones, tablets, TV,...

Los líderes en el mercado de PCs no se han sabido sabido posicionar en el mercado de tablets o smartphones.
Hay muchos intereses en juego porque la mayor parte de los líderes en el mercado de PCs tienen cuotas más bien residuales en las nuevas categorías de dispositivos.

Es el caso de Intel frente a los procesadores ARM, Windows frente a Android e iOS o las máquinas de HP, Lenovo o Dell frente a Apple, Samsung o HTC.

Los dispositivos aumentan

Parece evidente que algo si está cambiando. El número de dispositivos conectados crece de forma espectacular, tanto que se estima que a finales de 2011 el número de dispositivos conectados a Internet -de cualquier tipo- será equivalente al número de personas sobre el planeta. En 2015 la tasa será de dos dispositivos por habitante y el crecimiento vendrá, fundamentalmente, de la mano de smartphones, tablets y comunicaciones máquina a máquina (M2M).

Sin embargo, el tráfico de Internet no irá a la par y los PCs seguirán siendo el elemento prioritario y fundamental a la hora de generar y consumir tráfico.

Tanto es así que la estimación de Cisco muestra que en 2015 el PC seguirá siendo líder con más del 55% del consumo sobre enlaces de datos wireless (WIFI, 3G,...) que es el reducto natural de smartphones y tablets.

Por supuesto, sobre enlaces no inalámbricos (cable, xDSL, fibra,...) el porcentaje del PC se mantendrá por encima del 95% y no hay que olvidar que los enlaces de este tipo suponen más de un orden de magnitud sobre los enlaces móviles.


Las aplicaciones

Si se atiende al crecimiento de las tiendas de aplicaciones de Apple y Android (ambas cerca de las 500.000 aplicaciones) uno podría pensar que ya no hay vida después de ellas. En este caso, la cuestión es qué entiende cada uno por Aplicación.

Tras un pequeño paseo por las tiendas se puede observar que hay cientos de aplicaciones cuya función es la de linterna. Es decir, encender al flash de la cámara para que el smartphone ilumine la noche. Lo mismo ocurre con software para la predicción meteorológica, recetas de cocina,... Algo similar en el mercado de PCs jamás tendría la consideración de aplicación y, como mucho, sería un gadget.
El número de aplicaciones se ha convertido en un elemento comunicador de marketing por encima de una razón tecnológica.

Las compañías han puesto el foco en disponer de cuántas más aplicaciones mejor sin pararse a pensar cuántas de ellas aportan realmente valor. Como es lógico, no todas las aplicaciones son de este tipo pero es claro que en las stores cuesta muchísimo más encontrar un software para editar hojas de cálculo que para conocer la hora de varias ciudades al mismo tiempo.

Terminando

Matar al PC no va a ser tarea sencilla. Los smartphones y tablets complementarán al PC en aquellas situaciones en las que lo más relevante sea la movilidad. Esto es, cuando la movilidad se anteponga de forma inequívoca a todas las demás variables.

Pero por mucho que insistan los analistas parece bastante irreal pensar que los tablets van a desplazar al PC en el entorno doméstico o en el profesional de oficina. E incluso en movilidad absoluta el movimiento probablemente no será tan brusco como lo pintan.

Lo que sí es probable es que los proveedores de los mercados de PC intenten buscar una mayor sintonía y un mayor look & feel con los nuevos dispositivos con el fin de posicionarse en un mercado al que llegan tarde. Seguramente veremos más PCs con discos de estado solido, más oferta de pantallas táctiles y sistemas operativos con grandes iconos y tal vez sin el concepto de ventana al más puro estilo de los smartphones.

Todo sea porque nuevamente volvamos a viajar con un único dispositivo. Ahora hay que llevar el tablet para el ocio y lo ratos libres y el PC cuando se quiere hacer algo en serio. Más el teléfono, lógicamente.

www.tonsofit.com

RSS

El mundo vuelve a ser analógico



RSS

Los profesionales de TI vemos el mundo de forma diferente, hay que admitirlo. Esa rareza nos la han grabado a fuego durante años de estudio en los que una de las ideas fundamentales era la discretización de la realidad. La idea mágica era 'el mundo es demasiado complejo para ser metido en un ordenador, es preciso reducirlo a variables simples y discretas'.

Pensemos en el teclado de un ordenador y veremos que no es más que una forma bastante burda de convertir a variables discretas (102 teclas, más o menos) la variable continua que significa la escritura. Como no éramos capaces de reconocer la escritura manuscrita nos pusimos manos a la obra para convencer al mundo de que lo ideal no era eso (que es lo natural, lo innato) sino escribir con esas 102 teclas. Y lo hemos logrado porque son ya pocos los que se cuestionan por qué no pueden escribir a mano y que el ordenador se las ingenie para interpretarlo. Y del mismo modo, hemos repudiado la visión o la audición como métodos de entrada de los ordenadores, simplemente porque eran demasiado complejos.

Es más, a esos pocos usuarios de la resistencia civil que se han negado a aceptar nuestras premisas y siguen escribiendo de su puño y letra o dictando con complejos gadgets que leen e interpretan su escritura o su voz  les consideramos usuarios 'raros'. Generan mucho trabajo de soporte por la simple razón de que no somos capaces de hacer las cosas como ellos quieren que, por otra parte, es lo natural.

Afortunadamente la ley de Moore, cierta desde su exposición en 1965, es implacable (Intel ha confirmado que el vaticinio de su cofundador Gordon Moore durará al menos hasta 2018). Con ello hemos llegado ya a una situación en la que podemos discretizar variables con un nivel de realismo muy cercano a lo que de verdad ocurre en la naturaleza. Es decir, el área que describe la versión discreta de la curva (la que generan los ordenadores) es ya muy similar a su área real.

A día de hoy, hay potencia de cálculo más que suficiente para disponer de bolígrafos con cámara de vídeo integrada que permiten grabar todo lo que se escribe para posteriormente, mediante un OCR, convertirlo en texto.

Tenemos también tecnología que permite convertir una señal de audio en texto identificando la voz y descartando los ruidos añadidos. Esto no es nada nuevo dado que lo tenemos accesible de serie en el sistema operativo desde hace varios años para utilizarlo como herramienta de dictado en ofimática o para dar órdenes al propio sistema operativo.

Del mismo modo, cualquier PC doméstico actual dispone de potencia de cálculo para realizar un procesamiento de imágenes en tiempo real suficiente para identificar caras, leer matrículas o identificar y seguir objetos en movimiento. Es realmente asombroso lo que se puede hacer con un software de identificación facial y una webcam de 15 euros o un software para la lectura de matrículas de vehículos en movimiento.

Incluso en la web están disponibles mecanismos de identificación facial que en menos de 5 segundos ponen nombre a cualquier rostro. Pruebe a enviar la foto de algún famoso a myheritage.es o incluso enviar una foto propia para que le sugiera a quien se parece. Cuidado, porque esto último puede tener resultados no previstos que afecten a la autoestima ;-).

Llega algo nuevo

En unos días estará en el mercado Kinect, la nueva versión de la consola XBox. La gran novedad de esta consola no es una mayor capacidad en la generación de polígonos ni un mejor procesamiento de audio (que supongo que tendrá). Lo realmente nuevo es que no precisa de mando a distancia porque el mando es el usuario. La máquina dispone de varias cámaras de vídeo que detectan la posición y el movimiento del usuario con un nivel de precisión y sutileza increíbles.

Quienes hemos tenido la oportunidad de probarla hemos sentido ya la libertad que da saber que es la máquina quien se adapta al usuario y no al revés. Esto es, en sí mismo, un punto de inflexión y seguro que Kinect y su tecnología de reconocimiento de audio y vídeo creará un antes y un después, no solo en el mercado del entretenimiento sino en la interface hombre-máquina en sentido amplio.

Pero aún falta algo

Toda esa potencia de cálculo no sirve de mucho si los sistemas no son inteligentes. De nada vale un potente sistema de reconocimiento de voz o movimientos si posteriormente solo se reconocen términos, palabras o acciones concretas. La gramática de las lenguas que usamos los humanos es realmente compleja y cuando quien está al otro lado de la conversación (el ordenador) no está al mismo nivel la frustración es inevitable. Es esta frustración la que sentimos cuando, por ejemplo, hablamos con una voz enlatada que no es capaz de poner contexto a lo que le estamos contando.

Pero resulta que también tenemos potencia de cálculo para entender y procesar esas gramáticas incluyendo el análisis semántico y el contexto de la conversación. Por ejemplo, es curioso lo que se puede sentir charlando con Ikerne en la web de IparKutxa. Ikerne no está programada en base a palabras o términos concretos sino que realmente entiende lo que le decimos. Podemos decirle 'quiero comprar una casa' o 'me gustaría tener un dinero extra cuando me jubile' y nos recomendará una hipoteca o un plan de pensiones respectivamente. Podemos hablarle del color de su chaqueta, preguntarle por algún personaje histórico, político o futbolista,... Y no seré yo quien sugiera que se le haga algún comentario soez pero es muy divertido ver la mano izquierda con la que responde.

Y ahora juntémoslo todo. Tenemos potentes sistemas de reconocimiento de voz y sistemas igualmente potentes de reconocimiento visual. Y tenemos también un potente sistema de reconocimiento de gramáticas que acerca a las máquinas al modo en que se comunican los humanos. Todo ello dará lugar a nuevos asistentes inteligentes que permitirán superar la frustración que supone tener que hablar con una voz enlatada en los centros de asistencia.

Sería increíble poder hablar en un sitio web de viajes diciéndole cosas como 'quiero un vuelo a la capital del mundo el próximo miércoles y volver dos días después y quiero que sea lo más barato posible'. La máquina nos propondría un viaje a Bilbao (siento el chiste) el miércoles siguiente en clase turista con viaje de vuelta para el viernes. Eso sería una experiencia radicalmente diferente a lo que hoy en día se hace en las webs de las compañías aéreas.
Esta capacidad para interpretar al usuario en su propio lenguaje y para poder mantener una conversación fluida serviría para, por fin, ser capaces de superar el Test de Turing, desierto desde su planteamiento en 1950.

Las aplicaciones prácticas de esta nueva forma de interactuar con las máquinas tiene un campo de actuación ilimitado. Por ejemplo, pensemos en un asistente personal para personas mayores que viven solas. Desde luego, no es un tema baladí en una sociedad que envejece a marchas forzadas. ¿Que puede parecer una locura? Tal vez, pero empresas como Intel llevan años preparándose para esta nueva realidad.

Toda la tecnología necesaria comienza a estar disponible; solo hace falta ponerse a integrar. Ya hay quien lo ha bautizado como Interfaces Naturales; yo prefiero pensar que por fin la tecnología devolverá algo que secuestró hace mucho tiempo...

RSS

Todos quieren ser globales



RSS

Erase una vez que se era en el mundo de la informática en el que existían empresas dedicadas al hardware, empresas dedicadas a la seguridad, empresas dedicadas al almacenamiento, empresas dedicadas al networking, empresas dedicadas a hacer potentes gestores de bases de datos, empresas dedicadas al software en general, empresas dedicadas a la consultoría, empresas dedicadas a los sistemas operativos,... y algunas -muy pocas- dedicadas a todo ello.

En esos años, no era muy difícil asociar a Oracle con las bases de datos, a Microsoft con Windows, a Google con los buscadores, a Cisco con la electrónica de red, a Checkpoint o Juniper con los firewalls, a Symantec, Mcfee o Panda con los antivirus y la seguridad, a EMC, StorageTeckHitachi con el almacenamiento, a Compaq, Dell o HP con el hardware de PCs y servidores, a SAP con los ERPs, a Telefónica con la telefonía, a Accenture con la consultoría, a ninguna empresa con el software libre o a IBM con todo.

Es posible e incluso probable que si se le preguntase a cada una de estas empresas todas dijesen que estaban en algún otro sector adicional al descrito pero en general se podía acotar sin demasiadas dificultades el core de su negocio.


Centrarse en el core del negocio

La tendencia era deshacerse de todo aquello que no estaba en el corazón del negocio y en esa línea quizá IBM fue una de las pioneras. Se deshizo de su división de networking al tiempo que firmaba un contrato estratégico con Cisco. Posteriormente, se deshizo de su división de equipamiento de usuario (PCs, PDAs -que oemizaba de Palm-, impresoras, ...) mediante la venta a la china Lenovo. Más tarde vendió su división de impresión profesional a Ricoh (absorbida mediante InfoPrint).

El fin último era centrarse en el software, en el hardware (servidores, mainframe y almacenamiento) en el ámbito empresarial y, sobre todo, en los servicios. Todo lo demás sobraba. Se trataba de llegar al éxito mediante la especialización con presencia únicamente en los segmentos más rentables.

De su principal competidor (HP, tras la integración con Compaq que a su vez había comprado Digital) llegó a decirse, y así fue en la mayor parte de los casos, que tras la fusión con Compaq únicamente mantendría en su portfolio de productos aquellos en los que estuviera al menos en el tercer lugar en cuota de mercado. El resto eran rémoras que no hacían sino detraer recursos de los negocios más rentables. Y aunque la estrategia de HP e IBM no han sido exactamente paralelas (HP mantiene muy vivo su negocio de printing así como el de consumo) lo cierto es que ambos coincidían en la especialización.


Pero todo cambió...

De un tiempo a esta parte se está asistiendo a un nuevo periodo de concentración y des-especialización. Un periodo en el que todos quieren poder hacer de todo. Un periodo en el que todos quieren estar en todos los mercados y un periodo en el que parece que nadie quiere depender de nadie.

Hoy, Cisco e Hitachi son competencia de Dell, HP o IBM en el mercado de servidores, Intel es competencia de Symantec o Panda en el mercado de los antivirus, Oracle vende hardware, es competencia de SAP en el mercado de ERP y CRM e incluso de sí mismo con MySQL, EMC -a través de VMWare-
es competencia de Microsoft, Google con su Gizmo5 es competencia de Skype e incluso de Telefónica, Telefónica a su vez lo es de Facebook tras comprar Tuenti, Sony es competencia de Microsoft y pronto lo será de Google en el mercado del entretenimiento, Apple es competencia de Facebook en redes sociales y de Google en el mercado de la televisión online y la telefonía móvil, Accenture es competencia de IBM y HP en outsourcing y a su vez, IBM y Microsoft son competencia de Google o Amazón en los servicios de Cloud.

Algunas de estas concentraciones son entendibles -en términos de un economista son integraciones verticales, hacia adelante o hacia atrás dependiendo del caso-, como es el caso Telefónica con Tuenti, Google con Gizmo5 (Google Voice) o incluso Cisco con Skype -si finalmente la compra-. En ese caso se trata de estar en el mercado de los contenidos cuando ya se está en el mercado de las líneas de comunicaciones o viceversa.

Un operador tiene gran interés en generar más y más contenido dado que eso generará un mayor torrente de datos y con ello una mayor facturación. Y al revés, quien produce los contenidos que son consumidos por los usuarios tiene interés en estar en el negocio de las líneas de datos. Estas compras pueden ser entendidas desde la óptica de unificación de las comunicaciones IP. Tarde o temprano las llamadas de voz y vídeo, la radio, la televisión y en general cualquier medio de transmisión de datos acabará estando soportado por protocolos IP con lo que se producirá una convergencia de medios y con ello fricciones entre empresas que vienen de diferentes sectores y que se encuentran en un punto común: la Red.


Otras concentraciones no tan evidentes

Se están produciendo otras concentraciones cuya explicación no resulta tan evidente. De repente, los grandes fabricantes de sectores tan aparentemente dispares como el almacenamiento, el networking o la computación (servidores en general) están tomando posiciones a marchas forzadas para ser proveedores integrales. Estos movimientos se han hecho muy visibles en la reciente disputa entre HP y Dell por la compra de 3Par.

Es el caso de Cisco, Hitachi Data Systems, HP, Oracle o IBM. Cisco vende ya servidores además de su tradicional networking, HP se posiciona como un referente en el networking tras la compra de 3Com unido a sus tradicionales ProCurve, Oracle dispone de toda la línea de servidores y almacenamiento provenientes de la compra de Sun, HDS fabricará servidores integrados con su almacenamiento,... El siguiente paso natural parece ser que IBM compre una compañía de networking tras haber desmantelado la suya hace unos años (¿qué tal Juniper o Brocade?). ¡Todos quieren ser el corazón del Datacenter!

Estos movimientos no se explican con razonamientos puramente económicos. O no al menos con los mismos razonamientos que se usaban para justificar los movimientos anteriores en los que se podía hablar de diversificaciones verticales, sinergias en la función técnica,... y resto de jerga de los economistas. En este caso, la clave parece estar en la gestión de los futuros Datacenters y en el Cloud Computing porque parece -o eso es lo que estas compañías creen- que quien no esté ahí no sobrevivirá.

El Cloud Computing -o el outsourcing de siempre al estilo de Internet, porque realmente no es mucho más que eso- proyecta cambiar la forma en que las empresas conciben la infraestructura. Este hecho, junto a la virtualización y los blades, plantea a la mayor parte de los fabricantes la necesidad de ser globales. La razón es que con la tecnología actual no hay problemas técnicos para que el networking (switches, routers, firewalls, ids/ips, balanceadores,...), junto con el almacenamiento (san, nas, iscsi,...) y los servidores se encuentre todo junto en un mismo cajón, el cajón de blades, gestionados por un software único y resolviendo por diseño todas las complejidades de esa interconexión.

Tanto HP como IBM tenían ya un formato de cajón para incluir sus servidores, su almacenamiento y su electrónica de red, y lo mejor de todo, con un software de gestión que minimiza cuando no elimina las complicaciones derivadas de la interconexión de dispositivos. Es decir, los servidores, el almacenamiento y la red integrados out of the box por el propio fabricante. Esta situación es la quimera de quienes deben cuidar al máximo los costes -en sentido amplio- de la infraestructura para dar servicios gestionados desde la nube. Para ellos, la reducción de complejidad implica menores costes de gestión, menores costes en espacio (plantean incluso meter los CPDs en containers 100% autónomos en cualquier lugar el mundo), menores costes energéticos,...

Entonces, ¿cómo quedan los fabricantes que tenían una visión parcial de la infraestructura? ¿En qué situación se queda Cisco con sus dispositivos de red o Hitachi con su almacenamiento? El movimiento era inevitable y todos los jugadores de esos mercados parciales debían convertirse en globales.

Es por ello que Cisco ya vende servidores en su propio formato blade junto a su electrónica de red -y probablemente en el futuro junto a su almacenamiento-. Lo mismo pasa con Hitachi que comenzará a vender servidores integrados por diseño con su almacenamiento o con Dell que ha pujado hasta el final con HP por hacerse con una compañía de gestión del almacenamiento.


¿Qué dice la lógica que va a ocurrir a partir de ahora?

El punto de partida para responder a esto es que, a la vista de los hechos, en el corto o medio plazo habrá al menos cuatro o cinco proveedores que querrán competir por el mercado global ofreciendo soluciones completas e integradas. Entre ellos estarán Cisco, Oracle, IBM, HP, Dell y probablemente Hitachi.

Dicho así, suena incluso bien para los clientes. La competencia provoca aumentos en la eficiencia y es de esperar que esto genere tensiones que hagan contener el precio y aumentar las prestaciones. No es previsible que ninguno de los proveedores de este mercado global canibalice los productos pero no hay duda de que una mayor oferta es siempre buena para el cliente.

Pero ¿y en el largo plazo? La tendencia natural del mercado, de cualquier mercado, invita a pensar que tras un tiempo de expansión en el que todos harán y venderán de todo vendrá un tiempo de nueva concentración.
Los mercados maduros no permiten la existencia de más de dos proveedores, el líder y el retador, que hasta ahora eran IBM y HP, no necesariamente en ese orden. El resto serán proveedores residuales que serán fagocitados por los vencedores, enviados de nuevo a su mercado origen, reposicionados en un nicho o quién sabe qué.

Es decir, que compañías como IBM, HP o Dell corren el riesgo de pasar a no ser líderes en el segmento de las infraestructuras al tiempo que compañías como Cisco u Oracle corren el riesgo de comprometer su cuenta de resultados con el negocio de la infraestructura hasta el punto de que un mal resultado afecte a su negocio tradicional, en el que son líderes.

Algunos dirán que ser líder y referente en la electrónica de red o en el almacenamiento no es justificación suficiente para serlo también en el mercado de los servidores. Por contra, otros dirán que llegar a un nuevo mercado sin prejuicios ni rémoras del pasado permite innovar. El tiempo dará y quitará razones.

RSS

Los contenidos de Tons of IT están sujetos a licencia Creative Commons Reconocimiento 3.0 salvo donde se indique lo contrario.