No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Herencia humana: sesgos y veracidad con Inteligencia Artificial

4/8
Recursos

Aportes 29

Preguntas 2

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Si les gustó el tema pueden leer el libro "Weapons of Math Destruction" de Cathy O'Neil. Que explica con detalle sesgo algorítmico y cómo la IA presenta riesgos de brechas sociales, discriminación y mucho más.
Yo no soy feliz si no vengo a recomendarles libros, The Murderbot Diaries de Martha Well, sobre un robot programado para matar o salvar, pero se desprogramó y ahora solo quiere ver series viejas, pero tiene que fingir para que no lo reprogramen.
Otro texto interesante es el de LA PROMESA DE LOS MONSTRUOS, de Haraway, quiza una aproximación importante entre la brecha de AI y seres humanos
No sé en otros países, pero en Colombia a donde quiera que uno vaya, dentro de un claustro, uno visualiza mas mujeres que hombres. Entonces si los datos dice que hay mas mujeres desempleadas, o que han retirado a mas mujers que hombres, es de lógica, ¿no creen? pero no quiere decir que se discrimine o sea sesgado. Los datos en los informes son reflejo de los estudios humanos, y de las herramientas que HUMANOS crean. Está Interesante para reflexionar como proffesionales de los datos, siempre debemos ser conscientes de los sesgos en la informacion que compartimos y saber diferenciar de una realidad Común en la sociedad (Población)

Todo es la cuestion de los datos que registramos a la IA, sesgos que pueden producir decisiones inadecuadas a las situaciones que se presenten.

Un buen libro para complementar este tema es el recién salido *Artificia*l de Mariano Sigman y Santiago Bilinkis.
💭** `Frase``:` *"**La IA debe aprender de la realidad en toda su complejidad**"* Esta frase subraya la necesidad de que los sistemas de inteligencia artificial sean capaces de comprender y modelar la complejidad del mundo real. La realidad es un sistema altamente complejo, lleno de matices, excepciones y relaciones no lineales. Para que una IA sea verdaderamente útil, debe ser capaz de: * **Capturar la diversidad:** Los datos de entrenamiento de una IA deben reflejar la diversidad de la realidad, incluyendo diferentes culturas, idiomas, perspectivas y contextos. * **Manejar la ambigüedad:** La IA debe ser capaz de lidiar con la incertidumbre y la ambigüedad inherentes al lenguaje y a la información. * **Identificar relaciones causales:** La IA debe poder establecer conexiones causales entre diferentes variables y eventos, en lugar de simplemente correlaciones superficiales. * **Adaptarse a nuevos contextos:** La IA debe ser capaz de generalizar su conocimiento a nuevas situaciones y adaptarse a cambios en el entorno. **En resumen,** la complejidad de la realidad se refiere a la multitud de factores interrelacionados que influyen en cualquier situación. Una IA que solo aprende patrones simples y superficiales no será capaz de tomar decisiones inteligentes o de resolver problemas complejos. **Un ejemplo:** Si entrenamos a una IA para reconocer objetos en imágenes, pero solo le mostramos imágenes de objetos en entornos controlados, la IA tendrá dificultades para reconocer esos mismos objetos en entornos más naturales y desordenados. Para que la IA sea verdaderamente útil, debe ser capaz de reconocer objetos en una amplia variedad de contextos y condiciones. **En conclusión**, la frase "La IA debe aprender de la realidad en toda su complejidad" enfatiza la importancia de diseñar sistemas de IA que sean capaces de comprender y modelar el mundo real en toda su riqueza y diversidad.
Las computadoras no mienten y de ahi todo se fue al cara#$%&$ Basura entra basura sale de verdad que necesitamos regulacion para la IA o nos enfrentaremos a serios problemas
La inteligencia artificial, a pesar de sus avances, no es infalible y ha experimentado varios fallos a lo largo de su desarrollo. Estos errores suelen ser el resultado de sesgos en los datos de entrenamiento, limitaciones en los algoritmos o una mala interpretación del contexto. **Algunos casos destacados de fallas de la IA:** * **Reconocimiento facial:** * **Sesgos raciales:** Diversos sistemas de reconocimiento facial han mostrado dificultades para identificar correctamente a personas de color, especialmente a mujeres y a personas con tonos de piel más oscuros. Esto se debe en gran medida a que los conjuntos de datos utilizados para entrenar estos sistemas suelen estar compuestos principalmente por imágenes de personas blancas. * **Falsos positivos:** En algunos casos, los sistemas de reconocimiento facial han identificado erróneamente a personas inocentes como delincuentes, lo que ha llevado a detenciones injustas. * **Chatbots y asistentes virtuales:** * **Generación de respuestas inapropiadas:** Chatbots como Tay de Microsoft han generado respuestas racistas y ofensivas debido a que aprendieron de interacciones en redes sociales que contenían lenguaje inapropiado. * **Malentendidos del contexto:** Los asistentes virtuales a menudo tienen dificultades para comprender el contexto de una conversación, lo que puede llevar a respuestas confusas o irrelevantes. * **Vehículos autónomos:** * **Accidentes:** A pesar de los avances en la tecnología de vehículos autónomos, se han producido varios accidentes mortales atribuidos a fallos en los sistemas de percepción y toma de decisiones de estos vehículos. * **Dificultades en condiciones climáticas adversas:** Los vehículos autónomos pueden tener dificultades para operar en condiciones climáticas adversas, como la lluvia, la nieve o la niebla, lo que limita su uso en ciertas situaciones. * **Sistemas de recomendación:** * **Filtración informativa:** Los sistemas de recomendación pueden crear "cámaras de eco" al mostrar a los usuarios únicamente información que confirme sus creencias preexistentes, lo que puede limitar su exposición a diferentes puntos de vista. * **Productos sesgados:** En algunos casos, los sistemas de recomendación han mostrado productos o servicios de manera sesgada, favoreciendo a ciertos grupos o empresas. * **Diagnóstico médico asistido por IA:** * **Errores en el diagnóstico:** Aunque la IA puede ser una herramienta valiosa para el diagnóstico médico, se han reportado casos de errores en el diagnóstico que han llevado a tratamientos inadecuados o retrasos en la atención médica. **Causas comunes de estos fallos:** * **Datos de entrenamiento sesgados:** Los datos utilizados para entrenar los modelos de IA a menudo contienen sesgos inherentes a la sociedad, lo que puede perpetuar desigualdades y discriminaciones. * **Algoritmos con limitaciones:** Los algoritmos de IA no son perfectos y pueden tener dificultades para manejar situaciones complejas o imprevistas. * **Falta de transparencia:** La complejidad de algunos algoritmos de IA dificulta la comprensión de cómo llegan a sus conclusiones, lo que puede limitar la capacidad de identificar y corregir errores. Es importante destacar que estos fallos no son inherentes a la IA en sí misma, sino que son el resultado de decisiones de diseño y de los datos utilizados para entrenar los modelos. A medida que la IA continúa evolucionando, es fundamental abordar estos desafíos para garantizar que esta tecnología se utilice de manera ética y responsable.
Las personas tenemos sesgos y la IA está entrenada con la información hecha por nosotros, así que es natural que tenga sesgos :C, pero se puede corregir.

Entre más específico y complejo sea el tema, puede producir las alucinaciones o respuestas erróneas, debido a que los modelos son programados para: si la persona pregunta esto, la respuesta es esta, y el entrenamiento de datos es la probabilidad de las preguntas con sus respuestas basada en palabras específicas, el conteo de las mismas seguido de la probabilidad de completar la pregunta, pero llega el momento en que esos datos con los que se programó no tienen el algoritmo para la respuesta y dan respuestas con la información para algunas de las palabras o simplemente te muestran el mensaje: soy un modelo de IA que no tiene la respuesta a tu pregunta.
Este tema es muy interesante, pero detrás de estas creaciones hay personas quienes programan y entrenan esos modelos basados en probabilidad, por eso es importante tener presente que el tema a consultar debe ser manejado o anteriormente investigado para evitar caer en respuestas erróneas.

Si Programa mal la Inteligencia Artificial o con infuencias descriminatorias, tendran resultados errados a lo esperado logicamente… Algo Peligrosito!!!

Esto ya lo habia escuchado, muy importante considerar la ética en la IA

es real... la IA por ahora es un apoyo sus resultados no son 100% de fiar por eso es la importancia del conocimiento humano
hay un documental en netflix que habla sobre el tema se llama Prejuicio Cifrado. "Documental que analiza el descubrimiento hecho por Joy Buolamwini de MIT Media Lab sobre el sesgo racial presente en los algoritmos de tecnología y sus consecuencias".
El dedo arriba, dedo abajo de ChatGPT ya desapareció, pero personalmente si le digo si está bien o mal su ejecución. Cuando su resultado no es correcto eso si se lo puedes indicar. Creo que esperan más un feedback con base a la mejora y corrección de errores.
Algo muy importante que se pasa de largo es la necesidad de ser y preparar expertos. La IA no prescribe la experticia. Si se usa indiscriminadamente la IA sin verificacion, reporte o monitoreo con la idea de que hara la tarea por nosotros, se corre el riesgo de cometer grandes errores y hacer trabajos mediocres. La nocion de triangulacion para verificar de la veracidad de los datos que se usa en la investigacion cualitativa, es muy relevante y apropiada.
**Herencia Humana en la Inteligencia Artificial** La IA, por más avanzada que sea, es un producto de la mente humana. Esto significa que los valores, creencias y conocimientos de sus creadores se ven reflejados en los algoritmos y modelos que desarrollan. Esta influencia humana se conoce como **herencia humana**. * **Programación:** Los programadores escriben el código que define cómo la IA procesa información y toma decisiones. Sus propias perspectivas y experiencias influyen en las elecciones que hacen al diseñar estos sistemas. * **Datos de entrenamiento:** La IA aprende a partir de grandes cantidades de datos. Si estos datos están sesgados, la IA también lo estará. Por ejemplo, si un algoritmo de reconocimiento facial se entrena principalmente con imágenes de personas blancas, podría tener dificultades para identificar correctamente a personas de otras razas. **Sesgos en la Inteligencia Artificial** Los sesgos en la IA son patrones sistemáticos de error que pueden surgir debido a la herencia humana o a los datos de entrenamiento sesgados. Estos sesgos pueden tener consecuencias significativas en la vida de las personas, especialmente en áreas como la justicia penal, la contratación y los préstamos. * **Sesgos algorítmicos:** Estos sesgos se producen en los algoritmos mismos y pueden conducir a resultados discriminatorios. Por ejemplo, un algoritmo de contratación podría favorecer a candidatos con nombres que suenan más “europeos”. * **Sesgos de datos:** Si los datos de entrenamiento no son representativos de la población en general, la IA puede generar resultados sesgados. Por ejemplo, si un algoritmo de reconocimiento de voz se entrena principalmente con voces masculinas, podría tener dificultades para comprender las voces femeninas. **Veracidad e Inteligencia Artificial** La veracidad de la IA es otro tema importante. Si bien la IA puede procesar grandes cantidades de información y encontrar patrones complejos, no es infalible. La IA puede generar resultados falsos o engañosos, especialmente cuando se trata de tareas que requieren un alto nivel de comprensión del contexto y del lenguaje natural. * **Deepfakes:** Son imágenes o videos falsos creados mediante técnicas de inteligencia artificial que pueden ser muy difíciles de distinguir de los reales. * **Noticias falsas:** La IA puede utilizarse para generar noticias falsas de manera rápida y a gran escala. **Cómo mitigar los sesgos y garantizar la veracidad** Para mitigar los sesgos y garantizar la veracidad de la IA, es necesario adoptar una serie de medidas: * **Diversidad en los equipos de desarrollo:** Contar con equipos de desarrollo diversos en términos de género, raza, etnia y experiencia puede ayudar a identificar y mitigar los sesgos. * **Datos de entrenamiento de alta calidad:** Es fundamental utilizar datos de entrenamiento de alta calidad que sean representativos de la población en general y que estén libres de sesgos. * **Transparencia:** Los algoritmos de IA deben ser transparentes y auditables para que podamos comprender cómo funcionan y detectar posibles sesgos. * **Ética en el desarrollo de la IA:** Es necesario desarrollar principios éticos para guiar el desarrollo y el uso de la IA. **EN CONCLUSIÓN** La herencia humana, los sesgos y la veracidad son desafíos importantes en el desarrollo y el uso de la inteligencia artificial. Sin embargo, al ser conscientes de estos problemas y adoptando las medidas adecuadas, podemos desarrollar sistemas de IA más justos, equitativos y fiables.
Woww qué forma tan atractiva de contar. ¡Felicitaciones!
Pues podria estar pasando lo que se conoce como aprendizaje adverso <https://www.computerworld.es/article/2120138/el-aprendizaje-automatico-adverso-explicado-como-los-atacantes-perturban-los-sistemas-de-ia-y-ml.html> si que vale la pena leerlo
**HERENCIA HUMANA: SESGOS Y VERACIDAD CON INTELIGENCIA ARTIFICIAL** La IA tiene sesgos. Los resultados no son 100% objetivos, contiene prejuicios. Los sistemas de IA son tan imparciales como los datos con los que se entrenan. Por lo general, los sesgos surgen por la falta de diversidad en los conjuntos de datos con los que se entrenan los modelos de IA. ¿Cómo minimizar los sesgos presentes en los modelos de IA para garantizar la equidad en aplicaciones? 1\. Con una selección de datos adecuada 2\. Una representación diversa 3\. Pruebas rigurosas · Todo inicia en la etapa de diseño. Tener diversidad en el equipo de trabajo · El entrenamiento es vital. Seleccionar conjunto de datos imparciales y amplios que reflejen la diversidad. La IA debe aprender de la realidad e todos sus ámbitos. Buenas prácticas para lograrlo: 1\. Dando pulgar arriba como calificación a la información que entregan los modelos. 2\. Verificar la información entregada por las plataformas de IA, pues es normal que experimenten algo que se ha denominado: Alucinaciones. **ALUCIONACIONES:** Cuando la IA inventa datos que no son reales, no son reales, y los entrega como si fueran ciertos. Según un estudio de la Universidad de Stanford, ChatGPT4 tuvo una caída en la eficiencia de sus respuestas entre marzo y junio. Esto puede deberse a que los datos de entrenamiento usados en Junio fueron diferentes y de menor calidad que en marzo. O retroalimentación incorrecta.
kkiW1B ki
Cuando comentan que una IA tiene sesgo, me cuestiono si es realmente cierto, porque (en mi opinión personal) califico al ***sesgo*** como un ***prejuicio*****,** la IA no es un ser con emociones, pensamientos e historia de vida. Es un algoritmo alimentado con datos, números, transcripciones, imágenes y demás, y ese entrenamiento dependerá de qué tan representativo sea de la realidad.
Es una gran responsabilidad el uso de la tecnología, muy buena reflexión la de esta clase
No me parece tan simple el hecho de que sean más hombres en ciertos puestos. Es probablemente data valiosa

gracias

Minority Report
Como se dice en el análisis de datos, 'trash in, trash out'. Todo dependerá de la calidad de datos que utilicemos para análisis y/o entrenamiento de modelos.
Tenemos que aprender a identificar los sesgos que cometemos. Estamos muy vulnerables como sociedad a cosas tan sencillas como el sesgo de confirmación y zaz, fulanita cree que te conoce porque todos los de tu signo zodiacal son asi. si no entendemos esos sesgos se los pasamos a los demás y hasta la IA,