Conoce al perceptrón
Clase 14 de 18 • Curso de Funciones Matemáticas para Data Science e Inteligencia Artificial
Contenido del curso
Clase 14 de 18 • Curso de Funciones Matemáticas para Data Science e Inteligencia Artificial
Contenido del curso
Julian Castro Pulgarin
César Andrés Santana Gereda
Javier Pajarito Caicedo
Rafael Arteaga
Juan R. Vergara M.
Jorge Guzman Suir
Tomás Retamal Venegas
Marcelo Soto Moreno
Eduard Giraldo Martínez
Julian Castro Pulgarin
María Eugenia Pereira Chévez
Gibran Alonso Pérez Favela
Antonio Demarco Bonino
francisco jaque
Jhon Freddy Tavera Blandon
Jeinfferson Bernal G
Antonio Demarco Bonino
Gibran Alonso Pérez Favela
Eduard Giraldo Martínez
Nixon Fernando Ortiz Suarez
José Rodrigo Arana Hi
Arelys Viloria
Dennis Ricardo López Morell
Alfonso Palacio
Eduard Giraldo Martínez
Arelys Viloria
Jhojan Ramirez
Freddy Andrés Camargo Ocasión
Jhon Freddy Tavera Blandon
Ariel Gómez Méndez
Daniela Rodriguez Golpe
Willy Da Conceicao
Un dato curioso sobre la mielina: ¿Saben por qué no hacemos un corto circuito en nuestro cerebro con tantos impulsos electricos? o ¿Como hace para ir tan rapido la elctricidad por el axón? o ¿Por qué no pasa el impulso a otra neurona sabiendo que estan tan cerca? * Todo es gracias a la mielina
La mielina es un aislante natural que ayuda a la rapida conduccion de la electricidad por la neurona. Para aquellos que le guste lo tecnico: A lo largo de las fibras amielínicas, los impulsos se mueven continuamente como ondas, pero en las fibras mielinizadas, «saltan» o se propagan por conducción saltatoria. La mielina disminuye la capacitancia y aumenta la resistencia eléctrica a través de la membrana celular (axolema). Por lo tanto, la mielinización evita que la corriente eléctrica salga del axón.
Interesante
La mielina es cómo el recubrimiento plástico que tienen los cables. LOL XD.
El perceptrón simple es la red neuronal artificial más antigua. Su origen tuvo lugar en el año 1957 por el psicólogo Frank Rosenblatt, consistía en un clasificador binario o discriminador lineal, esto quiere decir que a partir de un entrenamiento con datos el perceptrón era capaz de reconocer patrones y tomar decisiones.
Interesante dato
Super interesante!. Muchas gracias por compartir esta dato
Señales de entrada: se asemejan a lo que en la vida real son los impulsos eléctricos. En la práctica representa características de lo que estamos modelando.
Pesos sinápticos: define la importancia de las señales de entrada mediante la asignación de una ponderación.
Unión sumadora: suma los resultados de las multiplicaciones entre las señales de entrada y los pesos sinópticos. Es una combinación lineal.
Función de activación: recibe la combinación lineal anterior para definir la salida de la neurona.
Personas que saben matemáticas hay "muchas", pero que además sean exelentes padagogos, reduce el dominio y que además sean empáticos, simpáticos y sencillos, lo restringe, aún más, entonces, cuando tenemos todas estas características en sincronía, el rango de la función da como resultado alumnos aprendiendo y satisfechos.
Quiero ser más categórico en decir que los profesores acá tienen un modelo, en hora buena, Enrique!!!!, felicitaciones!!!!.
Si las clases son de calidad, como en este caso, no se necesitan aportes con videos de Youtube, en las clases de Enrique no hay necesidad de ellos.
Es muy cierto, muy pocas personas explican con tanto cariño. . Debo admitir que antes no me gustaba como explicaba el profesor (era un problema mío por ir siempre rápido). Pero ahora que aprendo con más calma, me doy de cuenta de este gran profesor que tenemos.
Muchas gracias Profe Enrique 🎇👾
Que increible! el paper del perceptrón se publicó en 1958 👴🏼 Han pasado 64 años y tenemos la tecnologia super avanzada!
Les recomiendo este video sobre redes neuronales para profundizar en el tema: https://youtu.be/MRIv2IwFTPg?list=PL-Ogd76BhmcB9OjPucsnc2-piEE96jJDQ
wow si que quede sorprendido, esperemos con los sigfuientes cursos logremos ese tipo de trabajos !!!!
Elementos de un perceptrón:
Señal de entrada == Interpretar caracterítcias (color, precio, tamaño, calidad, fabricante, país de origen, etc) -> Se leen como 1 & 0
Peso sináptico == Ponderan el valor de la señal de entrada, le ponen un valor de que tan importante es la señal de entrada que acaba de entrar
Unión sumadora == Suma todos los valores de las Señales de entradas multiplicadas por sus respectivos Pesos sinápticos, y generamos una combinación lineal
Función de activación == El resultado de la Unión sumadora lo pasamos por aquí para que nos de un comportamiento NO lineal
gracias por el aporte .
En la siguiente imagen puede darse un modelo de perceptrón donde podemos distinguir las distintas entradas X, sus pesos W, el Valor de activación A que es el producto escalar del vector de entrada por el vector de pesos y la aplicación de la función de activación F al valor de activación de lo que podemos resumir en la siguiente ecuación:
y_p = f(\sum_{i}w_{i} \cdot x_i\ +\ b)
Ejemplo de perceptrón con polarización:
Elementos del Perceptron
Este es un ejemplo ESPECTACULAR y se complementa mucho con la clase del profe sobre los perceptrones: https://www.youtube.com/watch?v=6qulI6A90_Q&ab_channel=NataliaAcevedo
la parte 2 por si las dudas. https://www.youtube.com/watch?v=uwbHOpp9xkc&list=PL-Ogd76BhmcB9OjPucsnc2-piEE96jJDQ&index=2
Para las personas que les gusta más la parte visual y profundizar mucho más en el tema. Les recomiendo ver esta lista de reproducción del canal DotCSV.
.
Dónde explica detalladamente cómo se compone una red neuronal, que usos se les puede dar, datos curiosos, entre otras cosas más. Con la primera parte ya tendríamos bastante para entender, pero aquí estamos es para aprender. .
Te aseguro que no te quedarás con las ganas de ver el resto de los videos. 👾
DotCSV se ha convertido en un referente de habla hispana de AI
Perceptrón es la forma en que conocemos a una neurona artificial, compuesta por:
interpretar características. Por ejemplo, las características de un producto: precio, tamaño, marca, color, etc.0 y 1 que es lo que los modelos de Machine Learning normalmente están preparadas para calcular. Pesos sinápticos son números encargados de ponderar qué tan importante es esa señal de entrada.combinación lineal a la suma de las operaciones, por lo que obtendremos una línea recta como salida, cosa que no nos dará una complejidad para dividir nuestros datos.comportamiento no lineal.La verdad hasta este curso me estaba aburriendo más o menitos y a duras penas lo estaba haciendo, pero a partir de esta clase me encantó. A los que llegaron hasta aquí, felicidades:
Estaba en las mismas, se me hizó un poco pesado, pero no tanto porque no me guste sino por el hecho de que no había tanto material extra en los recursos.
Dato curioso: Pienso que es curioso que hayamos descubierto estos algoritmos desde hace bastante tiempo, pero hace tan poco tengamos computo para utilizarlo y ver su eficacia, ¿creen que esta regla siga? o más bien, creen que la computacion superara nuestra capacidad de innovar?.
Yo pienso que va a llegar un punto dónde la inteligencia artificial nos superará en todo sentido. No es algo qué está a la vuelta de la esquina, sin embargo; es algo que si le damos tiempo y no nos destruimos mutuamente antes de eso, puede llegar a suceder. 👾
¿Tú que piensas que pasaría Alfonso?
El perceptrón 🤓📰💚
Que increible es el perceptrón, estas clases son las que motivan aprender matemáticas.
porqué él dijo que dentro de cada Perceptrón ingresan varios features y luego, en la red neuronal solo ingresa una señal de entrada por cada neurona?
Las neuronas naturales
La idea de la neurona artificial
Ya comenzó lo realmente interesante de este curso, lo que no se estudia en ninguna enseñanza preuniversitaria.
Componentes de un perceptrón
Señales de entrada: Representa las características de lo que estamos modelando (features) y son un tipo de dato binario (1 o 0).
Pesos sinápticos: define la importancia con la que van a ser procesadas las señales de entrada, mediante una ponderación de un valor peso.
Unión sumadora: Es una combinación lineal de la suma de los resultados de las multiplicaciones entre las señales de entrada y los pesos sinápticos.
Función de activación: Es una combinación de funciones que recibe la combinación lineal de la unión sumadora y actúa como filtro dándole un comportamiento no lineal, definiendo de esta forma la salida de la neurona.
Genial gracias por compartir tus apuntes