Glosario Big Data (A-G)

Glosario Big Data (H-Z)

ACIDACID es un acrónimo de Atomicity, Consistency, Isolation and Durability: Atomicidad, Consistencia, Aislamiento y Durabilidad en español, propiedades fundamentales de una base de datos tradicional que no siempre se cumplen en las bases de datos NoSQL.
AlgoritmoEn Ciencias de la Computación, un algoritmo es una secuencia lógica, finita y con instrucciones que forman una fórmula matemática o estadística para realizar el análisis de datos.
Algoritmos genéticosTécnica utilizada para la optimización que se inspira en el proceso de la evolución natural y en los estudios de genética. Su aplicación al análisis de datos no estructurados es sin duda el gran reto de estos algoritmos avanzados.
Análisis de sentimientoSe refiere a los diferentes métodos de lingüística computacional que ayudan a identificar y extraer información subjetiva del contenido existente en el mundo digital. Gracias al análisis del sentimiento, podemos ser capaces de extraer un valor tangible y directo, como puede ser determinar si un texto extraído de la red Internet contiene connotaciones positivas o negativas.
Análisis Predictivo (AP)El análisis predictivo pertenece al área de la Analítica Empresarial y trata de utilizar los datos para determinar que puede pasar en el futuro. La AP permite determinar la probabilidad asociada a eventos futuros a partir del análisis de la información disponible (presente y pasada). También permite descubrir relaciones entre los datos que normalmente no es detectada con un análisis menos sofisticado. Técnicas como la minería de datos (data mining) y los modelos predictivos son utilizados.
Análisis Empresarial (AE)La Analítica Empresarial comprende los métodos y las técnicas que se utilizan para recopilar, analizar e investigar el conjunto de datos de una organización, lo cual genera conocimiento que se transforma en oportunidades de negocio y mejora la estrategia empresarial. AE permite una mejora en la toma de decisiones ya que éstas se basan en la obtención de datos reales y tiempo real y permite conseguir objetivos empresariales a partir del análisis de estos datos.
AnalyticsEs la forma de capturar informaciones, procesarlas y analizarlas para que se conviertan en insights.
Base de datos CassandraBase de datos distribuida desarrollada inicialmente por Facebook. Diseñada para manejar grandes cantidades de datos distribuidos a través de servidores ordinarios. Es una base de datos de almacén clave-valor escrita en Java. Permite la manipulación de grandes volúmenes de datos en formato distribuido. Twitter utiliza Cassandra dentro de su plataforma. Está escrita en ANSI C y el desarrollo está patrocinado por VMware.
BI (Business Inteligence)Es el método que transforma informaciones almacenadas y analizadas en datos que son estratégicos para una empresa y que se convierten en ganancia para el negocio.
Big DataBig Data es la expresión utilizada para designar un conjunto de datos tan grande que es difícil trabajar con los medios habituales (bases de datos). Se suele decir que el Big Data responde a las tres V: volumen de datos importante, variedad de datos, velocidad a la que llegan.
BigtopEs un esfuerzo para crear un proceso más formal o marco de referencia para las pruebas de paquetización e interoperabilidad de sub-proyectos Hadoop y sus componentes relacionados, con el objetivo de mejorar la plataforma Hadoop en su conjunto.
BigTable Sistema de base de datos distribuido propietario y construido bajo el proyecto Google File System (GFS, GooFS o GoogleFS) y que es fundamento de HBase.
BSONAbreviatura de Binary JSON. Es un formato de datos de computadora utilizado principalmente como formato de almacenamiento de datos y tranferencia en la red, en la base de datos MongoDB.
Business Analytics (Analítica Empresarial)La Analítica Empresarial o Business Analytics permite conseguir los objetivos empresariales, a partir del análisis de datos. Básicamente permite detectar tendencias y realizar pronósticos a partir de modelos predictivos y utilizar estos modelos para optimizar los procesos de negocio.
Business Inteligence (Inteligencia de Negocio)La Inteligencia Empresarial (IE) se centra en el uso de los datos de una empresa para facilitar también la toma de decisiones y anticipar acciones empresariales. La diferencia con la AE es que la IE es un concepto más amplio, no solo se centra en el análisis de datos sino que éste es un área dentro de la IE. Es decir, la IE se trata de un conjunto de estrategias, aplicaciones, datos, tecnología y arquitectura técnica entre las que se encuentra la AE; y todo ello, enfocado a la creación de nuevo conocimiento a través de los datos existentes de la empresa
ClusterConjunto de servidores (o nodos) que permiten garantizar la continuidad del servicio y distribuir la carga de procesamiento/red.
Dark DataSe refiere a datos desconocidos que pueden perderse o almacenarse, sin la posibilidad de accederse o analizarse en caso de que el sistema no esté configurado para eso.
Data CleansingEs el método que mantiene los bancos de datos libres de informaciones inconsistentes o irrelevantes.
Data LakeEs un lago de datos en el cual se almacenan informaciones en su estado natural y en gran volumen, es allí donde el Data Scientist debe sumergirse para encontrar sus principales insights.
Data MiningEs el proceso previo al Analytics, es la minería de los datos, la forma de descubrir informaciones relevantes.
Data Mining o minería de datosData Mining (minería de datos), también conocida como Knowledge Discovery in database (KDD), es comúnmente definida como el proceso para descubrir patrones útiles o conocimientos a partir de fuentes de datos tales como Bases de Datos, textos, imágenes, la web, etc. Los patrones deben ser válidos, potencialmente útiles y entendibles. La minería de datos es un campo multidisciplinar que incluye: aprendizaje automático, estadísticas, sistemas de base de datos, inteligencia artificial, Information Retrieval, visualización de la información, … El objetivo general del proceso de minería de datos consiste en extraer información de un conjunto de datos y transformarla en una estructura comprensible para su uso posterior.
Data Science (Ciencia de datos)La oportunidad que los datos ofrecen para generar nuevo conocimiento requiere de técnicas sofisticadas de preparación de estos datos (estructuración) y análisis de los mismos. Así en Internet, sistemas de recomendación, traducción automática y otros sistemas de Inteligencia Artificial se basan en técnicas de Data Science.
Data ScientistEl data scientist es un experto en la Ciencia de Datos (Data Science). Su trabajo se centra en extraer conocimiento a partir de grandes volúmenes de datos (Big Data) extraídos de diversas fuentes y múltiples formatos para dar respuesta a las cuestiones que se planteen.
Datos estructurados y no estructuradosLos datos estructurados tienen una organización lógica, pero con posibilidades pequeñas de extracción de informaciones para el Big Data. Los no estructurados son desorganizados, como los mensajes en emails y redes sociales, pero permiten una gran posibilidad de extracción de insights comerciales.
Deep LearningDeep Learning o aprendizaje profundo es una técnica dentro del machine learning basado en arquitecturas neuronales. Un modelo basado en deep learning puede aprender a realizar tareas de clasificación directamente a partir de imágenes, texto o sonido, etc. Sin necesidad de intervención humana para la selección de características, esto se puede considera la principal característica y ventaja del deep learning, llamada “feature discovering”. Puede poseer una precisión que supera al ser humano.
Dirty DataRegistros que no se han limpiado. Datos que se capturaron, almacenaron y que se usarán, pero que precisan ser primeramente trabajados.
Exabyte (EB)Unidad de datos equivalente a 103 (1.024) petabytes o 1018 bytes.
Fast DataDatos que pierden valor a lo largo del tiempo y que por ese motivo necesitan ser analizados prácticamente en tiempo real para que generen respuestas estratégicas para las empresas que necesitan dar respuestas y tomar decisiones de forma instantánea.
Gigabyte (EB)Unidad de datos equivalente a 103 (1.024) Megabytes o 109 bytes.
GeomarketingEl análisis conjunto de datos demográficos, económicos y geográficos que posibilita estudios de mercado para rentabilizar las estrategias de marketing se puede llevar a cabo a través del Geomarketing, una confluencia entre geografía y marketing. Se trata de un sistema integrado de información -datos de diversa índole-, métodos estadísticos y representaciones gráficas orientados a dar respuestas a cuestiones de marketing de forma rápida y sencilla.

Glosario Big Data (H-Z)

 

Otros glosarios disponibles online:

 

Deja un comentario

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies. ACEPTAR

Aviso de cookies