11 CONCEPTOS BÁSICOS PARA ENTENDER LA INTELIGENCIA ARTIFICIAL
Para poder entender un poco más de Inteligencia Artificial y todo lo que puede aportar, es importante tener claras sus estructuras, sus conceptos y nociones básicas. Eso es lo que hemos intentado resumir aquí.
Big Data: Término que se refiere a un gran volumen de datos. Pero lo importante no es la cantidad de datos. Lo que hace valioso el Big Data es lo que las organizaciones hacen con los datos. A partir de Big Data se puede realizar importantes análisis con los que obtener ideas que conduzcan a mejores decisiones y movimientos de negocios.
Data sets: Son conjuntos de datos organizados en estructuras rectangulares en forma de tabla o matriz, que almacenan sus datos en filas y columnas. En un data set tenemos todos los valores que puede tener cada una de las variables, como podría ser, por ejemplo, la altura, el peso o la edad de una persona. Tener un data set limpio y con una gran calidad en los datos es más importante que el mejor de los algoritmos.
Algoritmo: Secuencia de pasos bien definidos que resuelven un problema. Para un ejercicio sencillo como puede ser resolver un problema matemático, el algoritmo lo es todo; pero cuando hablamos de IA, el algoritmo será tan bueno como lo sea el peor de sus datos.
Bot: Programa que realiza tareas repetitivas, predefinidas y automatizadas. Los bots están diseñados para imitar o sustituir la acción humana. Operan en forma automatizada, por lo que pueden trabajar mucho más rápido que una persona. Antiguamente sus usos eran limitados pero gracias a la IA se han ampliado muchísimo.
Aprendizaje automático (Machine Learning): Es la capacidad que tiene un software de aprender por su cuenta. El aprendizaje automático sigue los pasos clásicos de la IA: primero hay un aprendizaje, un entrenamiento que genera una experiencia, y finalmente una puesta en práctica que nos dice si la tarea se cumple o no con éxito.
Aprendizaje profundo (Deep Learning): Utiliza enormes redes neuronales con muchas capas de procesamiento, aprovechando todos los avances en el poder de cómputo y técnicas de entrenamiento mejoradas para aprender complejos patrones en grandes cantidades de datos. Algunas aplicaciones comunes incluyen el reconocimiento de imágenes y del habla.
Redes neuronales (Neural Networks, NNs): Son un tipo de aprendizaje basado en máquinas que se compone de unidades interconectadas (como neuronas) que procesan información respondiendo a entradas externas. Tratan de imitar el comportamiento de las neuronas del cerebro humano.
Visión por computación (Computer vision): Se apoya en el reconocimiento de patrones y el aprendizaje profundo para reconocer lo que hay en una imagen o vídeo. Cuando las máquinas son capaces de procesar, analizar y entender imágenes, pueden capturar imágenes o vídeos en tiempo real e interpretar sus alrededores.
Procesamiento del lenguaje natural (NLP): Es una disciplina que se enfoca principalmente en la comprensión, manejo y generación del lenguaje natural por parte de las máquinas. El NLP actúa realmente como interfaz entre la informática y la lingüística. Por tanto, se basa en la capacidad de la máquina para interactuar directamente con los humanos.
Generación del Lenguaje Natural (NLG): Es el uso de la programación de inteligencia artificial para producir narrativa escrita o hablada a partir de un conjunto de datos. Se relaciona con la lingüística computacional, el procesamiento del lenguaje natural (NLP) y la comprensión del lenguaje natural (NLU), las áreas de la IA relacionadas con la interacción entre los humanos y máquinas, y entre las máquinas y las personas.
Sistemas expertos: Es un sistema informático que emula el razonamiento humano actuando tal y como lo haría un experto en un área de conocimiento. Los sistemas expertos son una de las aplicaciones de la inteligencia artificial que pretenden simular el razonamiento humano, de la misma manera que lo haría una persona especializada en un área determinada.
Comentarios
Publicar un comentario