No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Inteligencia Artificial General (AGI): ¿utopía o abismo?

6/8
Recursos

Aportes 28

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

GAI - General Artificial Intelligence

LLMs - Large Language Models

“La responsabilidad, recae siempre en nosotros los creadores y los usuarios, más que en la IA”

En el minuto 2:00 hay un error, las siglas son LLM,s y aparece LMM,s
me recuerda a la pelicula Ex Machina (2014)
"La Inteligencia Artificial no funciona por si misma" Depende de una Instrucción humana para funcionar" Aquí hay una explicación detallada: 1. **Dependencia de Datos y Programación**: La IA necesita ser entrenada con datos y algoritmos específicos que los seres humanos diseñan y proporcionan. Los humanos deciden qué datos se utilizarán, cómo se estructurarán, y qué resultados se esperan. 2. **Instrucciones y Modelos**: Los modelos de IA, como redes neuronales o algoritmos de aprendizaje automático, son creados y ajustados por ingenieros y científicos. La IA sigue estas instrucciones y parámetros establecidos para tomar decisiones o hacer predicciones. 3. **Limitaciones de Autonomía**: Aunque la IA puede realizar tareas complejas, como reconocer imágenes o procesar lenguaje, no puede establecer objetivos o decidir qué hacer por sí misma. Necesita que los humanos definan sus objetivos y le den las instrucciones necesarias para alcanzarlos. 4. **Interacción Humana**: En aplicaciones del mundo real, como chatbots, sistemas de recomendación o diagnósticos médicos, la IA responde a las acciones o preguntas de los usuarios. Sin esa interacción inicial o continua con humanos, la IA no puede hacer nada.
**LAMDA - 2022:** Experimento realizado por Blake, ingeniero de Google, en el que interactuaba con la IA. Se alarmó por la forma en que la IA se expresaba, como un ser humano. Parecía tener un elevado nivel de consciencia. Al no ser escuchado por la compañía, decide hablarlo con medios de comunicación, alertando en 2022 a la humanidad sobre el peligro de la IA. **LMMs: Large Language models:** Su función es procesar grandes cantidades de texto para extraer patrones que luego usen para responder a los mensajes de los usuarios. La IA no funciona por sí misma, depende de una instrucción humana para funcionar. No tiene intención. La responsabilidad siempre recae en los creadores y usuarios, no en la IA.

Cuando escuche esa noticia de LAMDA no me alarme mas bien me dio curiosidad , cuando llego AVA de platzi asistente virtual de Platzi. Estoy aquí para ayudarte con cualquier pregunta o duda que tengas sobre Platzi, lo he aprovechado como una herramienta.

Esta es una revolución industrial mas, saldremos adelante como lo hemos hecho siempre.
"las deciciones que toma estan basados en datos y patrones historicos la IA carece de itención!
Pero en teoría si un ser Humano con malas intenciones quisiera programarla de esa manera macabra lo podría hacer. que le impediría hacerlo?. yo amo el uso de la IA actualmente y todo lo que nos permite, pero siento que aun no dejo de pensar en las posibilidades de que un ser humano con la inteligencia pero intenciones erradas le de esa programación a una IA sin limites.
Lo que a mi me preocupa no es que reemplace a los seres humanos, lo que en realidad preocupa es que cada vez que hay una tecnología disruptiva, y la hsitoria lo ha demostrado, siempre hay manos maliciosas que la adquieren para hacer el mal, pero al ser humano que lidera esto al parecer poco le importa si no hasta cuando ya es demasiado tarde. (Ya veo a Einsten revolcarse enl a tumba por la energia nuclear) Tranquilo Einstein, que no eres el único y el hombre no aprende.
> La tecnología en sí no es mala, sino que depende de cómo decidamos usarla. Esto aplica para todas las herramientas.
Si, conversar con chatgpt es algo incompleto. NO tiene lo humano.
### "**El Riesgo <u>no es mas grande que los beneficios</u> que nos aportan estas nuevas tecnologías.**" Definitivamente: *"**La responsabilidad, recae siempre en nosotros los creadores y los usuarios, más que en la IA.***"
Creo que en un punto siempre hay gente que se emociona con el hecho de que una máquina tome conciencia propia. Muchas personas se entusiasman buscando romper el algoritmo de las IA para ver si pueden elaborar razonamiento propio o libre albedrío. En un cierto punto pareciera que los humanos ansían que llegue un espacio de quiebre y caos que lo lleve al momento en el que las leyes que él mismo escribió sean olvidadas y regrese a una relación salvaje con el entorno. Por eso tienen tanto éxito las historias post-apocalítpticas. Es decir, no es tanto el miedo a que suceda, si no la necesidad del ser humano de cruzar esa frontera en la que quiere sentirse omnipotente y condenado al mismo tiempo.
Las voces que predicen un escenario más apocalíptico, salvo grandes excepciones, suelen ser muy poco formadas en este campo, pero tienen mucha influencia de la ciencia ficción.
*"Si se quisiera, la IA podría ser usados para fines maliciosos. El riesgo está ahí latente, **pero no es más grande que los beneficios que nos ofrecen estas nuevas tecnologías**".*
La Inteligencia Artificial General (AGI) es un tema fascinante y complejo que ha generado mucha especulación y debate. **¿Qué es la Inteligencia Artificial General (AGI)?** A diferencia de la IA estrecha, que está diseñada para realizar tareas específicas (como jugar al ajedrez o reconocer rostros), la AGI es una inteligencia artificial hipotética que poseería la capacidad de comprender, aprender y aplicar el conocimiento en cualquier tarea intelectual que un ser humano pueda realizar. Sería, en esencia, una inteligencia artificial con una capacidad general de razonamiento, aprendizaje y automejora. **La AGI: ¿Utopía o Abismo?** La visión de una AGI ha inspirado tanto a la ciencia ficción como a la investigación científica. Sin embargo, también ha generado preocupaciones sobre sus posibles consecuencias: * **Utopía:** * **Solución a grandes problemas:** Muchos ven a la AGI como la clave para resolver algunos de los mayores desafíos de la humanidad, como el cambio climático, las enfermedades y la pobreza. * **Aumento de la productividad:** La AGI podría automatizar muchas tareas, liberando a los humanos para que se dediquen a actividades más creativas y significativas. * **Nueva era de exploración:** Una AGI podría expandir enormemente nuestro conocimiento del universo y acelerar el progreso científico. * **Abismo:** * **Riesgo existencial:** Algunos expertos, como Stephen Hawking y Elon Musk, han expresado su preocupación de que una AGI superinteligente podría volverse incontrolable y representar una amenaza para la existencia humana. * **Desigualdad:** El desarrollo de la AGI podría aumentar la desigualdad económica y social, ya que las empresas y los países que la desarrollen primero obtendrían una ventaja significativa. * **Desempleo masivo:** La automatización de muchas tareas podría llevar a un desempleo masivo y a una crisis social. * **Problemas éticos:** El desarrollo de una AGI plantea una serie de preguntas éticas difíciles, como ¿qué derechos debería tener una AGI? ¿Cómo se garantizaría que una AGI actuara de manera ética? **¿Estamos cerca de la AGI?** La verdad es que nadie sabe con certeza cuándo, o si alguna vez, se desarrollará una AGI. Algunos expertos creen que estamos a décadas de distancia, mientras que otros creen que podría suceder mucho antes. **Los desafíos de la AGI:** * **Comprensión del cerebro humano:** Para crear una AGI, necesitamos una comprensión mucho más profunda del funcionamiento del cerebro humano. * **Desarrollo de algoritmos:** Necesitamos desarrollar nuevos algoritmos capaces de aprendizaje general y razonamiento abstracto. * **Disponibilidad de datos:** La AGI requerirá acceso a grandes cantidades de datos de alta calidad. * **Consideraciones éticas:** Es fundamental abordar las cuestiones éticas relacionadas con el desarrollo y el uso de la AGI. **En conclusión,** la AGI es un concepto fascinante y lleno de promesas, pero también plantea importantes desafíos y riesgos. Es crucial que la sociedad en su conjunto participe en el debate sobre el desarrollo de la AGI y se asegure de que esta tecnología se utilice de manera responsable y beneficiosa para todos.
"La inteligencia Artificial nace buena, pero la sociedad la corrompe" de ser asi, la IA solo sera el reflejo de lo que somos como humanos
El error de capa 8 aplica para todo sistema, incluso para el uso de la IA hehe
El problema no es el IA el problema somos nosotros los humanos,
Por lo pronto es una fantasia... me encanto esa frase, ya veremos que sucede en el futuro.
Si, recuerdo ese dia. Cuando lei las noticias... Recuerdo que pense... bahhh no esta consciente, solamente es muy bueno en su proposito que es dificil diferenciar entre algo real o algo digital.

Gracias

Aun como en un capítulo de black Mirror donde se recreaba un humano, super avanzado y con unas funciones muy cotidianas de la vida, aún asi se percibe que es una máquina revestida.

Para contribuir a la adopción y empleo responsable de IA en nuestras vidas y la de nuestros ambientes es necesario tener los conocimientos suficientes para saber distinguir la información verdadera de la falsa. De lo contrario, ideas de exterminio, manipulación, conflictos se covierten en problemas más grandes

justo el hecho de que la inteligencia artificial sea una herramienta cuyo impacto lo definen las personas es lo que mas me aterra
No conocia el termino de GAI. En definitiva abarca grandes conceptos de AI