top of page

¿Qué es Deep Learning?

Deep Learning

El Deep Learning, una subdivisión del Machine Learning, se fundamenta en el intento de replicar el funcionamiento del cerebro humano, centrándose particularmente en la red neuronal que constituye dicho órgano. Este enfoque implica que la inteligencia artificial es competente para "aprender" de manera autónoma mediante una red neuronal que alberga una vasta cantidad de datos. A título ilustrativo, este paradigma se despliega eficientemente en la identificación del habla, el reconocimiento de imágenes y la realización de predicciones. Este sistema, compuesto por capas de neuronas, opera de manera sinérgica para cumplir con las diversas tareas mencionadas anteriormente.

¿Cuál es la diferencia entre Deep Learning y Machine Learning?

En esencia, no existe una demarcación tajante; en términos concisos, el Deep Learning constituye un subconjunto inherente al Machine Learning, donde la premisa fundamental radica en la realización de predicciones de manera óptima mediante el análisis exhaustivo de conjuntos masivos de datos(Big Data).

El Cerebro Humano y Deep Learning

Como se ha señalado con antelación, el Deep Learning busca emular el funcionamiento del cerebro humano. Ahora bien, ¿cómo logra esta emulación? Para comprender el modus operandi del Aprendizaje Profundo, imaginemos inicialmente un cerebro conformado por neuronas interconectadas, desempeñando funciones esenciales en el proceso de aprendizaje y transmitiendo información al cuerpo mediante impulsos eléctricos en el sistema nervioso.

En el contexto del Deep Learning, se dispone de una unidad computacional denominada perceptrón, la cual posibilita modelar funciones no lineales de manera significativa.

El Cerebro Humano y Deep Learning

Como se ha señalado con antelación, el Deep Learning busca emular el funcionamiento del cerebro humano. Ahora bien, ¿cómo logra esta emulación? Para comprender el modus operandi del Aprendizaje Profundo, imaginemos inicialmente un cerebro conformado por neuronas interconectadas, desempeñando funciones esenciales en el proceso de aprendizaje y transmitiendo información al cuerpo mediante impulsos eléctricos en el sistema nervioso.

En el contexto del Deep Learning, se dispone de una unidad computacional denominada perceptrón, la cual posibilita modelar funciones no lineales de manera significativa.

La magia del Perceptrón

El perceptrón es como el ladrillo fundamental del Deep Learning, es decir, es la base principal. Imaginen una simple neurona que recibe información (Inputs) y, mediante varios procesos (Weights), produce alguna respuesta a esa información (Outputs).

En el Deep Learning, cada neurona (o perceptrón) tiene la tarea de reconocer características específicas de los datos y establecer relaciones entre ellas. El perceptrón está compuesto por diferentes capas: la capa de entrada, capas ocultas y la capa de salida. Todas estas capas juntas forman lo que llamamos una red neuronal.

¿Como funciona el Percepetrón?

Entendida la idea principal de cómo trabaja el mecanismo del Deep Learning, ahora veamos cómo está estructurado el perceptrón y la red neuronal. Como mencionamos antes, la red neuronal tiene una capa de entradas que recibe los datos. En esta etapa, la neurona asigna valores de peso (weights) a cada característica de los datos y también asigna un valor constante llamado Bias. Este Bias representa el posible error que puede surgir cuando la neurona subestima o sobreestima el peso de cada característica.

Luego de esta etapa, los datos avanzan a una capa oculta que contiene una función de activación. Esta función es crucial porque, al salir de la neurona, establece un límite o umbral que ajusta el valor resultante. Esto significa que modifica el resultado o impone un límite que debe superarse para pasar a otra neurona. Finalmente, llegamos a la última capa, la de salida (Outputs o y), que interpreta los pesos asignados por cada neurona a las características. A través de la capa oculta, genera una predicción basada en los datos estudiados por la red neuronal.

En resumen, para simplificar, los inputs (normalmente llamados X) se les asigna un valor de peso (Weight) que puede subestimar o sobrestimar, y este valor se limita a un rango específico y una forma estadística particular. En la última capa, la red neuronal estudia estos datos para producir una predicción o resultado. Este proceso se resume en la fórmula que se muestra en la imagen anterior, donde la suma de los inputs multiplicados por los pesos, sumada al Bias dentro de la función de activación, nos da nuestra predicción.

Funciones de Activación más comúnes

Fondo Sección Inifinity.png

  Deep learning

Conoce las posibilidades del 

Te recomendamos explorar por tu cuenta:

Libro electrónico sobre IA

Curso del gratuito del MIT 

Articulo Deep Learning

Contáctanos:

comercial@ebssas.com

LEGAL

Términos y condiciones

Política de privacidad

Facebook
Instagram
LinkedIn

© 2023. Design by Enterprise Business Solutions

bottom of page