Glosario Inteligencia Artificial [Big Data]

| Última modificación: 11 de abril de 2024 | Tiempo de Lectura: 6 minutos

Algunos de nuestros reconocimientos:

Premios KeepCoding
Tanto el Big Data como la Inteligencia Artificial (IA) son hoy dos de las tecnologías más relevantes y con mayor potencial de cara al futuro de la humanidad. Por ello, es importante tener en mente un Glosario Inteligencia Artificial. Ambas tecnologías nos han demostrado en estos últimos años las infinitas posibilidades técnicas y perspectivas de estudio que ofrecen en variedad de campos, desde la medicina hasta la comunicación, pasando por la economía, la lingüística o, incluso, la filosofía. Si bien se trata de dos disciplinas diferentes, es indiscutible que tienen numerosas tangentes por las que se alimentan continuamente una de la otra. Por un lado, el Big Data nace de la eclosión contemporánea de las grandes cantidades de datos y la necesidad de almacenarlos, gestionarlos y sacar provecho de ellos. Por otro lado, la IA es el campo que indaga en la capacidad y mejora de los sistemas informáticos para aprender, razonar y actuar de la misma manera que lo haría un ser humano. En ambos casos, la clave está en la información y el uso que se hace de ella. En el Big Data, este elemento es evidentemente el personaje principal: el objetivo es la captación, almacenamiento, clasificación y visualización de los macrodatos. En la IA, el papel que desempeñan los datos es menos aparente, pero igual de esencial. Para reproducir el razonamiento humano, las herramientas basadas en esta tecnología analizan grandes cantidades de información de dónde sacan los patrones de comportamiento que reproducen. Esta correlación entre los dos conceptos se manifiesta sin mucha demora cuando indagamos en alguno de los dos. De esta manera, cuando hablamos tanto del Big Data como de la IA, encontramos numerosos términos que redundan. Esta es la razón que motiva este Glosario Inteligencia Artificial. Partiendo del Big Data como tema principal, y enfocándonos en la IA como subtema, este catálogo de tecnicismos pretende definir y contextualizar algunos de los conceptos básicos más relevantes en los que ambos campos convergen. Glosario Inteligencia Artificial.

Glosario Inteligencia Artificial [Big Data]

Algoritmo

Un algoritmo es un conjunto ordenado y finito de operaciones que permite hallar la solución de un problema, según la definición de la Real Academia Española (RAE). También es un método y notación en las distintas formas del cálculo. Esto designa tanto un manual de instrucciones como operaciones matemáticas tales que la multiplicación, división o el método de Gauss. En el caso que nos ocupa, los algoritmos permiten hacer cálculos para procesar las grandes cantidades de datos o automatizar tareas. Esto lo hacen mediante diversas técnicas como la división de un problema en otros más sencillos, el análisis de información previa para encontrar soluciones aproximadas o el cálculo de probabilidades.

Análisis predictivo

El análisis predictivo es un método que se basa en la observación y estudio de los datos recogidos hasta el momento para predecir probabilidades y eventos futuros. Las aplicaciones de esta disciplina combinan las técnicas de la ciencia de los macrodatos con las de la IA para detectar riesgos y oportunidades, con el fin de optimizar la fase de toma de decisiones de cualquier proyecto.

Análisis de grupos (Cluster analysis)

El análisis de grupos es una técnica de análisis de datos cuyo propósito es crear agrupamientos de elementos similares. Este método se usa en Big Data e IA para diferentes aplicaciones como la minería de datos, el aprendizaje automático o la detección de modelos que se repiten, entre otros. Para este tipo de análisis, se pueden agrupar los elementos en base a diferentes valores como la cercanía o conectividad que existe entre ellos, una propiedad en particular que comparten o por la densidad de los grupos. Asimismo, la agrupación puede ser el resultado o el punto de partida del estudio.

Big Data

El Big Data (o los macrodatos en español) denomina las grandes cantidades de información que requieren de herramientas tecnológicas y técnicas de análisis para su acumulación y aprovechamiento. La eclosión de este campo coincide con la de la era digital y el fomento exponencial de la información generada, cuyo análisis abre nuevas posibilidades de desarrollo, investigación e innovación humanas. Para la explotación de estos macrodatos, hay que considerar las denominadas 3 V: el volumen de la información, la velocidad a la que se genera, y su variedad. A estos aspectos, se le añaden últimamente otros como la veracidad de los datos, su valor o su visualización.

 glosario-inteligencia-artificial

Bases de datos

Las bases de datos son grupos de elementos que guardan una relación entre sí y que se almacenan para su posterior consulta y explotación. En el mundo digital, la cantidad de información que se acumula en estas bibliotecas puede ser descomunal. Por ello, son necesarias tecnologías de Big Data para gestionarlas y sacar provecho de ellas. Son los conocidos SGBD (Sistemas de Gestión de Bases de Datos) o DBMS en inglés (Database Management System). Asimismo, las bases de datos son un aspecto fundamental de la IA, pues a partir de ellas se extrae la información necesaria para aprender a razonar como lo haría una persona. De esta manera, las máquinas deducen modelos de comportamiento a partir de los cuales definen sus propias respuestas.

Datos estructurados

Los datos estructurados son el tipo de datos cuyas características, como formato o cantidad de caracteres, están ya definidos y se clasifican en tablas. Las fechas o los números son un ejemplo de estos.

Datos no estructurados

Los datos no estructurados son aquellos que no tienen una configuración en común predeterminado, sino que la información puede venir en diferentes formatos. Los documentos de texto, imágenes y vídeos o correos electrónicos forman parte de esta tipología.

Datos semiestructurados

Los datos semiestructurados son aquellos que además de ciertos elementos predefinidos, poseen marcadores que definen sus características y relación. Un ejemplo de este tipo de datos son las hojas de cálculo o los documentos HTML y XML.

Deep learning

El Deep Learning, o aprendizaje profundo, es una rama del Machine Learning, o aprendizaje automático (definido más adelante), cuyo objetivo es representar los datos con la mayor abstracción posible. De esta manera, se busca optimizar el proceso de creación de patrones y reconocimiento de estas representaciones. El aprendizaje puede ser supervisado o no, y se organiza en capas de procesamiento que se clasifican jerárquicamente del nivel de abstracción más bajo al más alto. Estos algoritmos tienen numerosas aplicaciones como el reconocimiento automático de sonido o el desarrollo de métodos de visión artificial.

Inteligencia Artificial

La Inteligencia Artificial (IA) es el conjunto de tecnologías que permiten que una máquina resuelva un problema, de la manera más óptima posible, a partir de la percepción y captura de la información que le rodea. De esta manera, existe una analogía entre la IA y la inteligencia humana, pues la primera busca dominar capacidades como el aprendizaje y la resolución de problemas, aspectos propios de la segunda. No obstante, la IA va más allá, ya que es capaz de procesar grandes cantidades de información, de manera más rápida y eficiente, contrariamente al ser humano. En este contexto, abarca un amplio rango de aplicaciones, desde los algoritmos que hay detrás de los motores de búsqueda hasta los coches inteligentes, pasando por la personalización de contenido de entretenimiento o los asistentes virtuales.

Machine Learning (aprendizaje automático)

El aprendizaje automático, más conocido como Machine Learning por su nomenclatura en inglés, es la rama de la IA que se centra en el desarrollo de algoritmos que, a través de su experiencia y la acumulación continua de información, van mejorando su respuesta y performance. Los macrodatos son una pieza fundamental del Machine Learning, pues es a partir de su análisis y procesamiento que esta tecnología va optimizando su comportamiento. De esta forma, esta herramienta permite realizar predicciones más acertadas, detectar riesgos u oportunidades y mejorar los procesos de toma de decisiones.

Natural Language Generation (Generacion de lenguajes naturales)

La Generación de lenguajes naturales, o NLG por sus siglas en inglés (Natural Language Generation), es aquella rama de la informática que busca reproducir un lenguaje natural, es decir, un texto que comunica al usuario un mensaje específico como, por ejemplo, los chatbots o el tiempo. Esto es posible gracias a las técnicas de la IA así como el acceso y procesamiento de Big Data.

Natural Language Processing (Procesamiento de lenguaje natural)

El procesamiento de lenguaje natural, o NLP por sus siglas en inglés (Natural Language Processing), es una rama de la IA que se centra en el desarrollo y optimización de programas que entienden y procesan el lenguaje humano. De esta manera, además de la IA, en esta rama también confluyen la lingüística y la informática.

Robótica en la nube (Cloud robotics)

La robótica en la nube es una rama de la robótica que se fundamenta en el aprovechamiento de las posibilidades que ofrece la nube y las tecnologías que se basan en Internet, como la computación o el almacenamiento en la nube. En este contexto, la nube se convierte en la fuente de información de este tipo de robots. Mediante una combinación de la IA y herramientas del Big Data, esta tecnología accede a las grandes cantidades de datos que posee la red para consultarlas, procesarlas y tomar decisiones en función de ellas. Asimismo, la nube hace posible que varios robots se conecten entre sí y compartan información, permitiendo optimizar tiempo y recursos.
Sandra Navarro

Business Intelligence & Big Data Advisor & Coordinadora del Bootcamp en Data Science, Big Data & Machine Learning.

Posts más leídos

¡CONVOCATORIA ABIERTA!

Inteligencia Artificial

Full Stack Bootcamp

Clases en Directo | Profesores en Activo | Temario 100% actualizado