La neurona: una pequeña y poderosa herramienta

Clase 6 de 29Curso de Fundamentos de Redes Neuronales con Python y Keras

Contenido del curso

Fundamentos en la arquitectura de redes neuronales

Manejo de redes neuronales con Keras

Resumen

Entender qué ocurre dentro de una neurona artificial es fundamental para comprender el funcionamiento de cualquier red neuronal moderna. El perceptrón, nacido en la década de los cincuenta [0:28], es la unidad básica que inspiró toda la revolución del deep learning actual, y conocer sus capacidades y limitaciones te permitirá diseñar arquitecturas más inteligentes.

¿Qué es el perceptrón y cómo realiza sus cálculos?

El perceptrón recibe entradas (representadas como x1 y x2) y les asigna pesos o weights (representados con la letra W) [0:46]. Dentro de la neurona se ejecuta una suma ponderada: cada entrada se multiplica por su peso correspondiente y los resultados se suman. Esta operación es esencialmente lineal, muy similar a una regresión lineal [1:05].

El flujo interno funciona así:

  • Los datos ingresan como entradas.
  • Se multiplican por los pesos de la neurona.
  • Se realiza la suma ponderada.
  • El resultado pasa por una función de activación.
  • Se obtiene la salida final.

El objetivo central es ajustar los pesos en cada iteración hasta que la neurona resuelva correctamente el problema planteado [1:25].

¿Para qué sirve el sesgo o bias en la neurona?

El término B (bias o sesgo) cumple la misma función que en una regresión lineal: aporta elasticidad al modelo [1:40]. Sin él, cuando la suma ponderada da cero, la salida siempre sería cero. Al agregar un bias, por ejemplo de valor dos, la salida se desplaza y toma el valor dos en lugar de cero [2:00]. Esto permite que el modelo se ajuste con mayor flexibilidad a distintos patrones de datos.

¿Cómo resuelve el perceptrón una compuerta lógica AND?

Para ilustrar su funcionamiento, se utiliza una compuerta AND [2:15], donde la salida solo debe ser positiva (uno) cuando ambas entradas x1 y x2 están activas. La función de activación transforma la salida lineal en valores discretos: si el resultado interno es mayor a cero, la salida es uno; si es menor, la salida es cero [2:40].

Con un primer conjunto de pesos, la neurona no resuelve correctamente el problema porque arroja uno en casi todas las combinaciones [3:05]. Entonces el perceptrón hace lo que mejor sabe: cambia los pesos. Tras el ajuste, la operación matemática ya satisface la tabla de verdad de la compuerta AND: solo produce uno cuando ambas entradas están activas [3:25].

Este mismo principio aplica para una compuerta OR [3:45], donde basta con que una de las entradas esté activa para obtener salida positiva. Alterando los pesos internos, la neurona resuelve también este problema sin dificultad.

¿Por qué un solo perceptrón no puede resolver todos los problemas?

Al representar estos problemas en un plano cartesiano, tanto la compuerta AND como la OR se pueden separar con una sola línea recta [4:10]. Sin embargo, la compuerta XOR presenta un desafío distinto: solo los extremos opuestos (esquina superior izquierda e inferior derecha) deben clasificarse como positivos [4:25].

Es imposible trazar una única línea que separe correctamente estas dos clases [4:50]. Este es el famoso problema del XOR, que demostró una limitación histórica del perceptrón simple: no puede resolver problemas que no sean linealmente separables.

¿Cómo se supera la limitación del perceptrón?

La solución es agregar más de una línea de decisión, lo que equivale a usar dos o más perceptrones trabajando juntos [5:05]. Al combinar múltiples neuronas, ya sea en la misma capa o en capas diferentes, se pueden resolver problemas mucho más complejos [5:20].

Esta idea abre la puerta a las redes neuronales: conjuntos de muchas neuronas funcionando simultáneamente, compartiendo y procesando información entre sí para construir representaciones más robustas de los datos [5:30].

  • Un perceptrón solo resuelve problemas lineales.
  • Dos perceptrones pueden resolver el problema XOR.
  • Agregar más neuronas y capas permite abordar problemas de complejidad creciente.

La próxima vez que trabajes con una red neuronal profunda, recuerda que cada neurona dentro de ella sigue ejecutando esta misma operación básica de suma ponderada, bias y función de activación. ¿Qué otro problema cotidiano crees que requeriría más de un perceptrón para resolverse? Comparte tu respuesta en los comentarios.

      La neurona: una pequeña y poderosa herramienta