Big Data e Inteligencia Artificial

Esta es una traducción libre del siguente articulo de

Niccolo Capanni


http://www.rosslynanalytics.com/news/blog/artificial-intelligence/artificial-intelligence/2012/07/02/big-data-artificial-intelligence


En 1958 el filosofo inglés, Thomas Hobbes  escribió  “scientia potentia est”.  Traducido como “El conocimiento es poder”, mientras la mayoría de nosotros  adquirimos información relativamente inútil. Einstein observo que la información no es conocimiento y por lo tanto cuando trabajamos con “Big Data” la Inteligencia artificial puede ser una gran herramienta  que puede ayudarnos a convertir datos en información luego esta en conocimiento y el conocimiento en poder.
El concepto de “Big Data” fue ganando interés  en el cambio del milenio  pero pocos se dieron cuenta,  ahora creciendo fuera de control se está desarrollando un  sentido de urgencia. El término “Big Data” nos advierte que el volumen de datos que manejamos  excede nuestra habilidad para manejarlos o tomar conciencia de ellos. Y por lo tanto la administración de “Big Data” nos trae una serie de problemas entre los que encontramos.
  • Búsqueda y filtrado: Existen muchos datos de diferente valor, y relevancia en el tiempo, necesitamos tener el discernimiento acerca de los datos que debemos usar; y por ello almacenamos  únicamente los datos que queremos o que pensamos que necesitamos.
  •   Captura y Almacenamiento:  para la adquisición legitima y análisis
  • Visualización y cambio de formato: la visualización puede dramáticamente reducir  el volumen de texto,  mientras que reformatear puede atraer estructuras no relacionadas  en un formato homogéneo.  Estas técnicas pueden reducir requerimientos de de almacenamiento,  ayudar en el análisis posterior y mejorar  la comprensión de los datos.
  •  Comunicación: al igual que no todo el mundo necesita una copia  de nuestra libreta de direcciones  la información debe llegar únicamente a las personas correctas.
  •  Eliminación: Almacenar únicamente la información que necesitamos.  Una vez  que los datos ya no son relevantes  debemos desocupar ese espacio, y posiblemente almacenar un resumen.
Si la inteligencia artificial  puede aumentar cualquiera de estas actividades, se lograría hacer la “Big Data” más manejable.

En 2011 Watson de IBM demostraron un gran avance en la gestión de grandes volúmenes de datos, se le dio acceso masivo a  cuatro terabytes de datos incluyendo en su armadura técnicas de inteligencia artificial, procesamiento de lenguaje natural,  Representación de conocimiento,  Razonamiento automatizado  y aprendizaje de máquina para derrotar a dos muy buenos campeones de Jeopardy. También  utilizó Apache Handoop  software de código abierto para la computación distribuida, con su utilidad impresionante de “Big Data”, Watson puede transformar su habilidad para Jeopardy para consultas médicas y advertencias para Wall Street.

----------------------------------------------------------------------------
Big Data: Conjunto de datos que supera la capacidad del software habitual (que no aplica tecnicas de Inteligencia artificial por ejemplo) para ser captruados gestionados, y procesados en un tiempo razonables.

La adquisición de datos crece cada vez más en nuestros días ya que existen un sinfín de sensores para distintos propósitos, investigaciones científicas y comerciales que apuntan a obtener más datos de sus distintas actividades de modo que puedan transformarlo en información y conocimiento unos ejemplos pueden ser  los siguientes.



Sloan Digital Sky Survey   recolecta cerca de 200 GB de información por noche, los cuatro principales detectores del gran colisionador de hadrones recabaron 13 petabytes en 2013, en la parte gubernamental, la administración del presidente de estadounidense Barack Obama anuncio un programa de investigación y desarrollo de un programa de "Big Data" que ayude a solucionar problemas importantes. En el sector privado vemos a Wallmart con más de un millón de transacciones por hora generando 2.5 petabytes, equivalente a 167 veces los datos contenidos en todos los libros de la biblioteca del congreso de estados unidos.
Con la gran explosión en la demanda de las telecomunicaciones también han crecido la generación de datos se estima que existen 4.6 billones de teléfonos móviles, existen entre 1 y 2 billones de personas con acceso a internet se estima que para el 2013 el trafico de internet rondara los 667 exabytes anuales, un ejemplo solo facebook debe manejar más de 40 billones de fotografías.


CONCLUSION

Estos datos claramente nos indican que para tener acceso al poder que puede generar esa gran cantidad de datos excede las capacidades de cualquier sistema secuencial convencional y se debe acudir a técnicas de Inteligencia Artificial que puedan ayudarnos a facilitar todas las fases de la información. De modo que el análisis y procesamiento de estos datos desemboquen en poder, por supuesto este poder genera una gran responsabilidad, la cual desde mi punto de vista es recaída sobre las personas que se dedican a esta área y es el poder fragmentar este poder y que este no esté concentrado en un unos pocos, si no en muchos de modo que ninguna persona en particular pueda abusar del mismo, un gran avance para estos pueden ser las  aplicaciones móviles,  de modo que todos puedan tener acceso al análisis de datos y poder repartir el poder, por supuesto quien tendrá la mayor ventaja comercialmente hablando será el que llegue primero, quien tenga la capacidad de desarrollar y utilizar correctamente un sistema de este tipo podrá tener ventaja ante sus competidores.


Referencia:

 http://es.wikipedia.org/wiki/Big_data

Comentarios

Entradas populares de este blog

AGE OF EMPIRES ERROR INICIALIZAR DIRECT 3D

ESTRATEGIAS DE PRUEBAS DE SOFTWARE

DISEÑO AL NIVEL DE COMPONENTES