#HP ConvergedSystem, equipos optimizados para procesar SAP HANA con gran performance

Publicado el 19 marzo 2014 por Geeksroom @GeeksRoom

Las grandes masas de datos constituyen un gran desafío a la hora de ser analizadas, pues para obtener respuestas complejas, es necesario tener grandes volúmenes de datos , provenientes de prácticamente toda fuente disponible, en tiempo real,  sin filtración o preparación de las bases e datos. La arquitectura  SAP HANA  permite el procesamiento de datos in-memory -(memoria RAM) aprovechando los avances en la memoria principal, la tecnología de procesador y el conocimiento técnico de las aplicaciones – obteniendo beneficios sin precedentes para la analítica y creando una nueva categoría de aplicaciones. Procesos que antes tardaban días puden ser procesados en segundos.

Empresas como  Coca-Cola, Velux, T Mobile, Hellenic, Future Group, Hilti  y mas de 800 a nivel mundial, se benefician con modelados en tiempo real sobre situaciones o problemas que antes no eran viables y comenzaron a replantear la manera de administrar sus empresas, ahora que cuentan con la capacidad para analizar, simular  y reaccionar en tiempo real.

Dado que las aplicaciones cada vez requieren más el enriquecimiento de datos normalmente estructurados con datos semi-estructurados, no estructurados, o texto, la base de datos HANA proporciona un motor de búsqueda de texto, además de su clásico motor de consultas relacionales.

Siguiendo con la alianza con SAP,  HP logró en el día de hoy,  la certificación de sus equipos optimizados para correr SAP HANA.  HP ConvergedSystem500 ( con 2 TB para aplicaciones y + de 16 TB de Análisis de Datos) y el Proyecto Kraken estará listo en dentro de poco tiempo (tendrá 12TB para aplicaciones y 16 sockets)

Según los datos de performance obtenidos analizando respecto a la competencia, los resultados duplican en velocidad de archivado, de procesamiento de registros con marcas certificadas por SAP.

En la siguiente imagen, veremos cual es el camino que diseñó HP para afrontar los nuevos desafíos en análisis de grandes volúmenes de datos, y su próximo Proyecto Kraken.

[fuente: WikiPedia ; Kraken ]