Esta es una traducción libre del siguente articulo de
http://www.rosslynanalytics.com/news/blog/artificial-intelligence/artificial-intelligence/2012/07/02/big-data-artificial-intelligence
Niccolo Capanni
http://www.rosslynanalytics.com/news/blog/artificial-intelligence/artificial-intelligence/2012/07/02/big-data-artificial-intelligence
En 1958 el filosofo inglés, Thomas Hobbes escribió
“scientia potentia est”.
Traducido como “El conocimiento es poder”, mientras la mayoría de
nosotros adquirimos información
relativamente inútil. Einstein observo que la información no es conocimiento y
por lo tanto cuando trabajamos con “Big Data” la Inteligencia artificial puede
ser una gran herramienta que puede
ayudarnos a convertir datos en información luego esta en conocimiento y el
conocimiento en poder.
El concepto de “Big Data” fue ganando interés en el cambio del milenio pero pocos se dieron cuenta, ahora creciendo fuera de control se está
desarrollando un sentido de urgencia. El
término “Big Data” nos advierte que el volumen de datos que manejamos excede nuestra habilidad para manejarlos o
tomar conciencia de ellos. Y por lo tanto la administración de “Big Data” nos
trae una serie de problemas entre los que encontramos.
- Búsqueda y filtrado: Existen muchos datos de diferente valor, y relevancia en el tiempo, necesitamos tener el discernimiento acerca de los datos que debemos usar; y por ello almacenamos únicamente los datos que queremos o que pensamos que necesitamos.
- Captura y Almacenamiento: para la adquisición legitima y análisis
- Visualización y cambio de formato: la visualización puede dramáticamente reducir el volumen de texto, mientras que reformatear puede atraer estructuras no relacionadas en un formato homogéneo. Estas técnicas pueden reducir requerimientos de de almacenamiento, ayudar en el análisis posterior y mejorar la comprensión de los datos.
- Comunicación: al igual que no todo el mundo necesita una copia de nuestra libreta de direcciones la información debe llegar únicamente a las personas correctas.
- Eliminación: Almacenar únicamente la información que necesitamos. Una vez que los datos ya no son relevantes debemos desocupar ese espacio, y posiblemente almacenar un resumen.
Si la inteligencia artificial puede aumentar cualquiera de estas
actividades, se lograría hacer la “Big Data” más manejable.
En 2011 Watson de IBM demostraron un gran avance en la gestión
de grandes volúmenes de datos, se le dio acceso masivo a cuatro terabytes de datos incluyendo en su
armadura técnicas de inteligencia artificial, procesamiento de lenguaje
natural, Representación de
conocimiento, Razonamiento automatizado y aprendizaje de máquina para derrotar a dos
muy buenos campeones de Jeopardy. También
utilizó Apache Handoop software
de código abierto para la computación distribuida, con su utilidad impresionante
de “Big Data”, Watson puede transformar su habilidad para Jeopardy para
consultas médicas y advertencias para Wall Street.
----------------------------------------------------------------------------
Big Data: Conjunto de datos que supera la capacidad del software habitual (que no aplica tecnicas de Inteligencia artificial por ejemplo) para ser captruados gestionados, y procesados en un tiempo razonables.
La adquisición de datos crece cada vez más en nuestros días ya
que existen un sinfín de sensores para distintos propósitos, investigaciones científicas
y comerciales que apuntan a obtener más datos de sus distintas actividades de
modo que puedan transformarlo en información y conocimiento unos ejemplos
pueden ser los siguientes.
Sloan Digital Sky Survey
recolecta cerca de 200 GB de información por noche, los cuatro principales
detectores del gran colisionador de hadrones recabaron 13 petabytes en
2013, en la parte gubernamental, la administración del presidente de
estadounidense Barack Obama anuncio un programa de investigación y desarrollo
de un programa de "Big Data" que ayude a solucionar problemas
importantes. En el sector privado vemos a Wallmart con más de un millón de
transacciones por hora generando 2.5 petabytes, equivalente a 167 veces los
datos contenidos en todos los libros de la biblioteca del congreso de estados
unidos.
Con la gran explosión
en la demanda de las telecomunicaciones también han crecido la generación de
datos se estima que existen 4.6 billones de teléfonos móviles, existen entre 1
y 2 billones de personas con acceso a internet se estima que para el 2013 el
trafico de internet rondara los 667 exabytes anuales,
un ejemplo solo facebook debe manejar más de 40 billones de fotografías.
CONCLUSION
Estos datos
claramente nos indican que para tener acceso al poder que puede generar esa
gran cantidad de datos excede las capacidades de cualquier sistema secuencial
convencional y se debe acudir a técnicas de Inteligencia Artificial que puedan
ayudarnos a facilitar todas las fases de la información. De modo que el análisis
y procesamiento de estos datos desemboquen en poder, por supuesto este poder
genera una gran responsabilidad, la cual desde mi punto de vista es recaída
sobre las personas que se dedican a esta área y es el poder fragmentar este
poder y que este no esté concentrado en un unos pocos, si no en muchos de modo
que ninguna persona en particular pueda abusar del mismo, un gran avance para
estos pueden ser las aplicaciones móviles, de modo que todos puedan tener acceso al análisis
de datos y poder repartir el poder, por supuesto quien tendrá la mayor ventaja
comercialmente hablando será el que llegue primero, quien tenga la capacidad de
desarrollar y utilizar correctamente un sistema de este tipo podrá tener
ventaja ante sus competidores.
Referencia:
http://es.wikipedia.org/wiki/Big_data
Comentarios