La expansión de tecnologías y herramientas basadas en Big Data combinadas con la Inteligencia Artificial está dando lugar a un nuevo campo de estudio conocido como Big Learning, o cómo exprimir al máximo las posibilidades del machine leraning cuando se trabaja con cantidades inmensas de datos.
El objetivo principal es la construcción de sistemas inteligentes que mejoren de forma automática a partir de experiencias, mediante teorías, algoritmos y sistemas de direccionamiento de Big Data en flujos complejos que requieren cada vez mayores velocidades de procesamiento, almacenamiento más económico, y la respuesta oportuna para la toma de decisiones en entornos de alta incertidumbre, lo que ha planteado varios retos para el análisis de datos convencional. Por ejemplo, los métodos bayesianos, ampliamente utilizados en Machine Leraning y otras áreas.
Los profesionales empiezan a considerar que los métodos bayesianos son a menudo demasiado lentos, incluso a pequeña escala de problemas, debido a muchos factores, tales como los modelos de conjugación con integrales intratables. Sin embargo, los métodos bayesianos tienen varias ventajas.
Por ejemplo, los métodos bayesianos ofrecen una teoría basada en principios para combinar los conocimientos previos y evidencias inciertas para hacer inferencia sofisticada de factores ocultos y predicciones.
La estadística bayesiana, trata la incertidumbre mediante la probabilidad estadística y supone que, sobre cualquier cantidad desconocida siempre puede definirse una probabilidad, según el grupo de Investigación de la UCM. http://www.mat.ucm.es/~villegas/info/bayesianos/index.html Se basa en el Teorema de Bayes, planteado en 1763, que expresa la probabilidad condicional de un evento aleatorio.
Una nueva visión desde la Universidad de Tsinghua
En una nueva visión general publicada en National Science Review , los científicos de la Universidad de Tsinghua, (China) presentan los últimos avances en métodos bayesianos para el análisis de grandes volúmenes de datos. Los co-autores Jun Zhu, Jianfei Chen, Wenbo Hu, y Bo Zhang cubren los conceptos básicos de los métodos bayesianos, y revisan los últimos avances en métodos bayesianos flexibles, algoritmos eficientes y escalables, e implementaciones de sistemas distribuidos. Estos científicos asimismo describen las posibles direcciones de desarrollo de métodos bayesianos futuros.
Los Métodos bayesianos son cada vez más relevantes en la era del Big Data para proteger los modelos de alta capacidad contra el overfitting, y para permitir que los modelos de forma adaptativa actualizcen su capacidad. Sin embargo, la aplicación de métodos bayesianos para grandes datos se encuentra con el problema de un cuello de botella de cálculo que debe ser abordado con nuevos métodos de inferencia (aproximados) «.
Fuente: Oxford Academic