En China llevan tiempo implementando reconocimiento facial, incluso ahora por el tema de COVID-19, integraron cámaras que además evalúan la temperatura, vean este video:
Facial recognition: Concerns over China’s widespread surveillance
El mundo de los datos: data science y machine learning
Aprende ciencia y análisis de datos para optimizar las estrategias de tu negocio
Retos para aprender ciencia de datos
¿Qué es ciencia de datos y big data? ¿Cómo afectan a mi negocio?
¿Qué tipo de información podemos analizar?
¿Cómo crear empresas y culturas data-driven?
¿Qué es inteligencia artificial y machine learning?
¿Qué es deep learning? Análisis de imagen, audio y video
Herramientas y roles de trabajo en ciencia de datos
Flujo de trabajo en ciencia de datos: fases, roles y oportunidades laborales
Herramientas para cada etapa del análisis de datos
¿Qué es y cómo usar una base de datos relacional con SQL?
Cómo estructurar queries en SQL
Conflictos y retos actuales sobre la ética y tratamiento de datos
Problema de negocio: análisis
Aplica técnicas de storytelling para convertir problemas de datos en historias
Cómo estructurar un caso de negocio
Análisis cuantitativo en un caso de negocio
Análisis cualitativo en un caso de negocio
Fusión cuanti-cualitativa en un caso de negocio
¿Qué es minería de texto? ¿Cómo usarla para obtener información adicional?
Variación de comportamientos a partir de la geolocalización
Problema de negocio: implementación
Acciones, algoritmos y toma de decisiones según los resultados del análisis
Apuntes y cursos para aprender ciencia de datos
Continúa aprendiendo ciencia y análisis de datos para ejecutar estrategias efectivas
You don't have access to this class
Keep learning! Join and start boosting your career
Understanding the difference between sensitive data and confidential data is crucial in today's digital age. Sensitive data is data that reveals personal information that could put an individual at risk if disclosed, such as ethnicity, sexual orientation, or medical status. In contrast, confidential data is data that must be protected for legal or contractual reasons, such as trade secrets and employee data.
It is important for each individual to think about the type of information he or she is willing to share and to whom he or she will share it. Privacy and security depend on our informed decisions.
Applications such as FaceApp, which use advanced technologies to predict future or alternative physical traits, raise ethical questions about privacy. When using these apps, users provide facial data that is then used to predict what they might look like in the future. This information includes facial vectors such as the distance between the eyes or the dimensions of the face.
In what seems like a simple exercise in fun, lies a complex web of sensitive personal data. These platforms collect information to improve their algorithms and generate more accurate predictions. The question is: are we aware and comfortable with trading our privacy for digital services?
Dating apps like Tinder collect and use information about their users to personalize experiences. They know who you are, what you like and what you are looking for. They use this information to show potential matches based on demographics and personal preferences, driven by algorithms that learn from your interactions and choices within the app.
This leads to an ethical question: should these companies show you only what their algorithms think you prefer? Or should they offer you broader access to the full spectrum of users? Personalization offers convenience, but it also raises concerns about the risk of staying inside preference bubbles without exploring real possibilities.
The case of Hong Kong during the pandemic is a compelling example of how digitization and laws can come together to control public health situations. With extreme measures such as mandatory COVID testing and quarantines tracked through geolocation devices, debates arose about the extent to which it is acceptable to sacrifice individual rights for collective safety.
Hong Kong adopted stringent technological and regulatory strategies to monitor and contain the spread of the virus. However, the whole process raises questions about privacy and individual freedom, opening up debates about the extent to which other countries should adopt similar measures.
Ethical reflection on the use and control of data is fundamental in our society. Asking questions about what data we are willing to share, who should have access to it, and how this data will be used in our daily lives and in large systems is a critical conversation to ensure a balance between technological benefits and privacy protection.
I encourage you to talk to your friends and family about their roles in the data ecosystem, ask these questions, and build an ethical approach to technology. Also, as homework, I recommend you watch the documentary "The Social Dilemma" to delve deeper into the impact of social media and data collection in our lives. keep questioning and learning!
Contributions 335
Questions 14
En China llevan tiempo implementando reconocimiento facial, incluso ahora por el tema de COVID-19, integraron cámaras que además evalúan la temperatura, vean este video:
Facial recognition: Concerns over China’s widespread surveillance
😗👫 Creo que Tinder podría preguntar si queremos que la app use IA para recomendarnos personas que nos gusten. Que sea solo una opción y no el funcionamiento por defecto de la aplicación.
Wow encontrar el equilibrio entre la privacidad, ética y lo que conviene en términos de tratamientos de datos no es tan sencillo
Notas: Conflictos y retos actuales sobre la ética y tratamiento de datos
Distinguir información sensible y crear un criterio ético sobre los usos de los datos.
Aprender qué información es del individuo, que información es general, qué información es sensible, confidencial y que información somos libres de compartir sin poner en peligro nuestra identidad o identificación.
Ética del procesamiento de imágenes: Por ejemplo FaceApp donde puedes transformarte en viejo, mujer, etc. Accediendo dándoles nuestra información para predecirnos, es que ellos obtienen toda la información de los vectores de nuestra cara, cual es la distancia entre un ojo y otro, distancia con la boca, cual es la dimensión de nuestra cara (redonda, ovalada, alargada, etc), puede no parecer relevante el dar esta información, sin embargo somos muchos los que la estamos dando y es por ello que tienen tantos puntos de datos que pueden saber cómo nos veremos, por qué hay personas que como nosotros, la han usado de otras edades y con eso predecir cómo va a evolucionar la cara.
¿Quiero yo dar este tipo de información?
¿Me siento vulnerable?
¿Me gusta predecir?
¿Quiero darle a la gente de mi entorno esta posibilidad de decidir sobre mi?
Tinder: almacena información de los usuarios y sus preferencias, ellos saben quien eres y que estas buscando, con esto te muestran todas las personas que están a tu alrededor según la distancia que elegiste, el género y la edad. Sin embargo, ellos podrían mostrarte personas que ellos ya tienen la información que te van a gustar según las indicaciones que le diste a la plataforma. Identifican palabras también.
Hong Kong: Con las pruebas de covid ellos intentan medir, predecir y controlar la pandemia.
Por ley o por la falta de, es que la tecnología avanza a un ritmo tan diferente (amenazador o retador)
yo solo me metí a platzi para crear a SKYNET.
:v
Interesante el caso de Hong Kong.
Deja mucho para reflexión el siguiente segmento de la clase:
"… ¿Cómo tiene que avanzar la ley digital para explicar una realidad? Por ley, o la falta de esta, es que la tecnología avanza a un ritmo diferente –para unos amenazador o muy retador para otros— pero la ley no lo ha hecho a este ritmo solo la digitalización…"
Es muy interesante evaluar la parte ética del tratamiento de datos no solo como usuarios, sino también como futuros científicos de datos (si al final te decantas por hacer esto) porque en tu mano está el desarrollo de los diferentes modelos y la objetividad que se les dé a la hora de presentar resultados y hechos. Como yo lo veo, como usuarios hay que tratar de ser conscientes digitalmente y entender que la alimentación de algoritmos continuo que damos en nuestra navegación diaria, igual nos va cerrando las opciones de conocer otras realidades. Por eso en más de una charla he escuchado que piden no solo guiarnos con las recomendaciones de las diversas plataformas, y ser lo suficientemente tolerantes para tener en nuestras RRSS gente con opiniones diferentes a las tuyas para no perder el foco con tu verdad, que no significa es la verdad de todos! Que gran curso!
Hay un documental en Netflix que se llama “nada es privado”, es muy bueno lo recomiendo. Trata sobre como una empresa llamada Cambridge Analytica compraba datos de los millones de usuarios de Facebook para realizar propaganda dirigida específicamente a estas personas, con el objetivo de crear polarización y converserlos de una noticia falsa. Tuvo gran influencia en las elecciones de Estados Unidos de 2016 y la salida salida del Reino Unido de la Unión Europea. Por lo tanto el poder de tener los datos de las personas y poder manipular esta información en contra de la democracia puede ser peligroso.
Resumen de la clase:
Puntos para reflexionar:
Etiqueta en el procesamiento de imágenes
Caso 1
Caso 2
Caso3
No solo recomendaria ver el documental The Social Dilemma sino ver este video de Ophelia Pastrana para analizar las cosas que se ignoró en el documental y poner bajo contexto latino y activista https://www.youtube.com/watch?v=LMMHHHLxXTo
Es interesante, por ejemplo últimamente he visto que las app en el momento de pedir autorización digamos a la ubicación, dice solo cuando la app este en uso, cuando antes no, es algo que puede general mas confianza a la hora de usarlo.
Ve a ver este blog que compartí en la sección de tutoriales, habla sobre la ética de los científicos de datos. Buenísimo.
Qúe tantos datos debo dar o no… esa es la cuestión.
Es interesante ver como los datos son esa moneda de cambio para que la experiencia del usuario sea más personalizada. ó ¿Como lo ven?
Muchas veces sentía que mi carrera en ciencia de datos la iba a enfocar mucho a marketing digital, me parecía interesante el poder detectar tendencias en este campo. Pero después de reflexionar un poco (y ver The Social Dilemma me dió ese empujón), siento que el uso que se le dan a los datos en MKT Digital no es algo en lo que me gustaría participar, no me gusta que se usen los datos para generar ansiedad o compras compulsivas, es mejor cuando se usan para dar un mejor asesoramiento al cliente, pero no para dañar su mente.
¿Uds que creen respecto a ciencia de datos aplicada al marketing digital?
Recomiendo ampliamente este documental que está en Netflix. En él se abordan temas bastante interesantes como el sesgo en los algoritmos de IA utilizados tanto por empresas poderosas como por gobiernos y agencias gubernamentales. Desgraciadamente, estos sesgos en IA y Machine Learning, están relacionados con otros aspectos que han existido como discriminación racial y opresión del mas fuerte sobre el mas débil, así como la falta de supervisión y legislación sobre el uso de IA en general que afecta de diferentes maneras a la gente.
Esto me hace recordar la presentación de Google Duplex. Una AI que llama para agendar una cita en una estética, y la chica que la atiende piensa que la AI es realmente una persona. Esto hace plantearse el que nos deben de notificar cada vez que interactuamos con AI, y no hacernos creer que son personas reales.
Recomiendo la lectura del libro “Homo Deus, una breve historia del mañana” del historiador Yuval N. Harari.
Harari pone sobre la mesa la necesidad de discutir sobre la regulación de la información.
Ya sabemos que los organismos son al final, algoritmos biométricos. Partiendo de eso, algunos gobiernos pueden vigilar a todas las personas a través de pulseras con tecnología biométrica (ritmo cardiaco, la presión sanguínea, la dilatación de las pupilas, etc.) para reportar de regreso a un sistema de control y de toma de decisiones en manos de instituciones y empresas.
“Existen desde hace tiempo las pulseras que captan el comportamiento del corazón y más detalles del cuerpo, en línea, por lo que es cuestión de tiempo para que estas mismas pulseras puedan reportar la reacción, positiva o negativa, que una persona puede tener, pone como ejemplo Harari, al ver un espectacular con la fotografía del líder de un país como Corea del Norte y saber si el individuo representa un riesgo para el gobierno.”
.
Yuval Harari y la dictadura digital
https://www.lambarry.com/opinion/2018/3/2/yuval-harari-y-la-dictadura-digital
Yo siempre lo he dicho, para que la humanidad pueda dar el salto en cuanto a evolución comportamental, hay que quitarle la toma de decisiones, muchos dirán por qué o cómo?.
la respuesta al por qué sería porque sencilla y llanamente todos los seres humanos somos corruptibles en algún punto y ese grado de corruptibilidad es el que nos lleva a cometer injusticias y cosas antiéticas.
el cómo, lo resolvería con una IA potente, la cual sea capaz a través de ecuaciones matemáticas (algoritmos) determinar el mejor curso de acción para x o y situación. Estoy hablando de una IA potente, la cual ya no dependa de programación sesgada por parte de su creador.
RETO:
-Aprendi que hay que atraves de los insentivos de una empresa podemos saber si nos esta manipulando o no y asi poder diferenciar entre la verdad o las mentiras que nos dan para tener una mayor venta.
Tienes que hacerte estas preguntas:
-Quiero dar este tipo de información?
-Me siento vulnerable?
-Me gusta predecir?
-Quiero darle a gente de mi entorno la capacidad de decidir por mi?
-Preguntar a tus compañeros, ¿Puedo subir esta foto tuya?.
En la actualidad, hay varios conflictos y desafíos éticos relacionados con el tratamiento de datos. Algunos de ellos son:
Privacidad:Con la recolección y el almacenamiento masivo de datos, surgen preocupaciones sobre cómo se utilizan y protegen estos datos. Muchas empresas y organizaciones recolectan y utilizan información personal sin el conocimiento o el consentimiento de las personas, lo que plantea preocupaciones éticas sobre la privacidad y la seguridad de los datos.
Discriminación: Los algoritmos y modelos de aprendizaje automático pueden replicar y perpetuar la discriminación existente en los datos utilizados para entrenarlos. Esto puede llevar a decisiones automatizadas que son injustas o perjudiciales para ciertos grupos de personas.
Transparencia: Muchas empresas y organizaciones no proporcionan información suficiente sobre cómo se recolectan, almacenan y utilizan los datos. Esto dificulta la comprensión y la supervisión de cómo se utilizan los datos, lo que puede llevar a malos usos o abusos.
Propiedad intelectual: Con la creciente cantidad de datos disponibles, surgen desafíos éticos en torno a quién tiene derecho a acceder y utilizar esta información. Los datos pueden ser considerados un recurso valioso y su uso puede tener implicaciones económicas y legales importantes.
Responsabilidad: Con la automatización de decisiones y la delegación de tareas a sistemas de inteligencia artificial, surgen preocupaciones sobre quién es responsable de las acciones y decisiones tomadas por estos sistemas. Esto plantea desafíos éticos sobre la responsabilidad y la rendición de cuentas en un mundo cada vez más automatizado.
Lo tenebroso del análisis de datos ha provocado que lea más a menudo los avisos de privacidad, hasta de la noticia mañanera que visito.
'* Aprendí que … Es importante discutir más acerca de estps temas con más personas. Ayudar a crear conciencia de lo que significa compratir datos a través de cualquier aplicación en dispositivos electrónicos que se conectan a Internet.
Recomiendo este libro: https://www.aceptolascondiciones.com/
Como presenta Silvia en el Video, el dilema no es solo de quien maneja los datos, sino de quienes decidimos -si decidimos o no- dar los datos. Más aún cuando no acceder a las políticas de tratamiento de datos puede implicar no poder acceder a los servicios. Por ejemplo, si vas a un banco para acceder a un crédito debes aceptar, si no aceptas simplemente no te ofrecen ningún servicio. Lo que invita a cuestionar sobre las nociones de libertad y autonomía en a toma de decisiones.
Imaginen la siguiente escena:
Julia, una mujer joven, está en su casa cuando llega un paquete de Amazon que nadie pidió. Ella lo abre y de su interior saca artículos para bebés. Julia está embarazada y Amazon lo supo antes que ella misma. ¿Es esto posible?
DW Documental comparte este documental que todo aspirante a científico de datos debería ver. ¿Hasta dónde debemos recabar y analizar datos de nuestros clientes solo para venderle más?
Link del documental:
https://www.youtube.com/watch?v=UzGemfwaTT8
Cuéntame tus pensamientos después de ver el documental y sigamos la conversación (:
Creo que como todo, los datos pueden ser un arma de doble filo, dependiendo de como los utilicemos, pueden ser nuestra salvación o nuestra perdición…
Lo de hong kong fue brutal, pero hay que decir que acataron la crisis de forma más efectiva, aunque podamos decir que menos ética, en España llevamos 2 confinamientos y se preveen 2 más, todo cerrado mucha pobreza, nada de consumo, muchas personas se quedarán en la calle, se ha incrementado la violencia doméstica, las enfermedades mentales, las adicciones. Que duro es saber que decisión tomar, las sociedad tiene muy poca consciencia con respecto a una pandemia, se sabe que si no te restringen la mayoría desacatará las recomendaciones de la salud pública
Super Interesante
RETO: Mira el documental The Social Dilema, piensa qué crees que es verdad o no y luego mira el siguiente análisis: https://www.youtube.com/watch?v=Frdna_cBwwU.
¿Qué aprendiste? ¿Acertaste en algunos de tus puntos? ¿Qué fue lo que más te asustó o sorprendió?
Si hubiera sabido de precidiones con datos a la hora de escoger mi pareja, me hubiera ahorrado desiluciones 😥
El rastreo y monittoreo, asi como el tratamiento de datos de las personas deben tratarse con responsabilidad y acorde a la normatividad vigente.
Aprendi de que cada día estamos mas y mas vigilados, que la privacidad será un bien de lujo que pocas personas tendrán el privilegio de presumir.
Acerté en desinstalar las redes sociales mucho antes de la pandemia, ya algo lo intuia.
Lo que más me sorprendió es la capacidad de cambiar y moldear la conciencia y perspectiva de las personas/comunidad/población/país, ¡es increíble!. Desde un tiempo ya estoy con la curiosidad de leer libros de psicología persuasiva para darme cuenta y evitar que sea manipulado, este video a reafirmado mi convicción voy a hacerlo, leer, leer, leer, aprender, aprender…
Personalmente creo que es imposible que gente depredadora no entre en este rubro, porque lo harán, ahora dado que la ciencia de datos busca verdades y no excusas creo que tienen una mayor tendencia con gente de bien… me parece muy bueno la recomendación de social dilema, ya que uno toma conciencia y empatiza con el otro desde lo que le puede pasar a uno mismo… pendiente de ver
Desde la teoría de modelos y sistemas dinámicos es muy interesante el enfoque que se le ha dado a este fenómeno de las social networks, he escuchado varios términos como opinion dynamics en articulos como este https://arxiv.org/abs/1701.06307 donde se puede explicar desde las matemáticas el comportamiento humano (De una manera simplificada) pero que pone de una manera objetiva y cuantitativa como nosotros nos dejamos influenciar por diferentes medios y como predecir el comportamiento que vamos a tener en el fúturo. Si les interesa este enfoque les recomiendo leer este articulo en forma de tutorial https://arxiv.org/abs/1701.06307 😃
Si fue extremo lo de Hong Kong pero funciono, aunque el problema es saber quien tiene acceso a mis datos, por ejemplo se podria crear una aplicacion donde todos los datos de los ciudadanos este ahi, y que solamente los algoritmos e IA puedan acceder a tus datos. Y si un funcionario quiere acceder a tus datos manualmente, autamitcamente te llegue una notificacion sobre la ID del funcionario, sus datos profesionales y el proposito del porque accedio a tu base de datos. Y si no te convence la explicacion uno pueda llamar a un departamento que tenga el poder de investigar y mandar a juicio los casos de mala praxis y corrupcion por parte de los funcionarios.
Los datos Intrinsecos a la persona como la huella, la voz (hasta cierto punto poque cuando tenemos gripa nos cambia), el rostro, el iris, son Datos que cada vez usamos mas y los dejamos por ahi en cuanta cosa nos lo pida sin deternos a pensar como sera tratado eso, Por ejemplo;
Los Gym en muchos lados para ingresar ya no te dan una tarjeta de acceso sino con la huella, si bien parece bueno y aparentemente hace la vida “mas sencilla” (para mi es una bobada), un establecimiento de estos que hace con esa Data, como la maneja, como la almacena, donde la guarda, que uso hace de eso, si alguien se da de baja borran esa info. Realmente es un problema.
Y si hablamos de las Apps de Bancos que ahora usamos la huella para desbloquear y hacer transacciones en vez de ingresar la clave.
Hola a todos! Mi aporte luego de ve el documental THE SOCIAL DILEMMA:
-Aprendí que debo darle uso adecuado a las redes sociales e internet en general, con el propósito de ser un consumidor consciente de este serivicio, generar cambios positivos propios y de otras personas.
-Acerté en que el consumo de internet de manera desenfrenada, genera actualmente en la sociedad conductas humanas inadecuadas, y con frecuencia, con un desenlace lamentable/inesperado, por ejemplo: Apertura a los vicios de todo tipo, desde el consumo de pornografia, estafas, fraudes, desintregración familiar por temas politicos, etc.
-Lo que más me sorprendió fue reflexionar detenidamente como el mal manejo de las redes sociales, y en general del internet, puede generar un impacto muy determinante en el desenvolvimiento/ comportamiento de las personas, tanto por el lado positivo como negativo, haciéndolas evolucionar ó involucionar.
A mi me encanta el análisis de los datos y con ellos hacer predicciones, tomar decisiones, sin embargo creo que para el caso de Silvia de procesamiento de imágenes, estas app deberían informar que la información que estamos proporcionando serán almacenadas para el análisis, sin embargo si nuestra fotografía es usada por otra persona y hace esta clase de ejercicios, entonces otros estarían decidiendo por nosotros, es decir no hay un filtro de estas app, cualquier foto que le cargues será analizada, por lo tanto estaría bien corroborar la identidad antes de cargar cualquier imagen
Yo una vez escuché una frase que decía algo como “Todo aquello que tiene que ver con la tecnología, desde un principio, fue hecho para facilitarnos la vida y no para que nuestra información sea 100% segura”. Quiero decir que, sabiendo que somos seres humanos con inteligencia, voluntad y pasiones (emociones) debemos intentar tener control y tener un gran juicio crítico sobre aquello que compartimos en las redes y las herramientas que manejamos. Ser cuidadosos y tener presente que, debe preponderar la importancia de nuestra libertad pero también nuestra responsabilidad en estos campos. :3
Es la parte que nunca he tenido en cuenta cuando quise estudiar Data Science pero me parece importante revisarla y aprender un poco mas
Toda empresa DATA DRIVEN recoge datos de sus usuarios para poder realizar el ejercicio de ciencia de datos, sin embargo, existe la posiblidad
de que aquellos datos lesionen la privacidad y la integridad de una persona:
Ej. Utilizar FaceApp con la foto de un conocido y falsificar una identidad.
También existe el dilema ético sobre el tratamiento de datos sensibles como los gustos personales, la información de chats o posts, como hacen las
aplicaciones de citas o que estudian el perfil psicológico de un usuario.
Otro gran dilema es aquel relacionado con la información biométrica y la ubicación de los individuos que puede ser una herramienta de espionaje y de violación
severa a la privacidad.
Ej: Hong-Kong durante la pandemia.
Los datos pueden ser usados de manera poco ética para manipular, resaltando ideas que se quieren implantar para que los usuarios de las redes asuman dichas ideas
y crean una consciencia colectiva que puede ser tomada como manipulación.
Buenísima clase para mostrársela a un amigo y empezar un debate, mi opinión sería tipo:
“No podemos esperar que una máquina tome decisiones que ni nosotros mismos sabemos tomar”.
DICCIONARIO DE LA REAL ACADEMIA ESPAÑOLA.
Ética: Conjunto de normas morales que rigen la conducta de la persona en cualquier ámbito de la vida .
La forma en que nos criaron, nuestra educación formal o nuestro dominio de temas específicos influye mucho en la percepción de lo que es “ético” o no. Como periodista he visto a muchos colegas hacer cosas que están mal y que para mi resulta obvio que no es ético y cuando les comento las razones por las que no lo es me miran cómo: ¡No lo había visto de esa manera!
Considero que la tecnología debería tener como primicia la vida, si logro identificar la cura para el cáncer y es por medio de la implementación de tecnología debe estar por encima de las decisiones de un medico tratante, pero el paciente si debería estar en disposición de aceptar o no siempre y cuándo esto no ponga en peligro la vida de alguien mas, para el caso del COVID esta medida explicada en el video me parece a lugar y en pro de un bien común
Me ha encantado el llamado a informarnos sobre los problemas éticos de nuestro rubro, me surgen varias dudas que giran al rededor de casos extremos donde la inteligencia artificial tenga un rol clave en la vida de las personas, al punto de “poder” elegir si vive o no; pudiendo ofrecer herramientas para el alienamiento del usuario. Me pregunto ¿Cómo afrontaremos éste dilema en la Web 3.0?, permitanme divagar y soñar un poco…
En lo personal hace años pienso en “ambas caras de la moneda” al intentar aislarme del componente moral de la tecnología. Creo que el día del mañana tendremos la oportunidad de utilizar redes descentralizadas de datos, donde poseeremos nuestros identificadores y posiblemente “paquetes de datos” servirán como tokens transferibles en pos de mejorar nuestra experiencia en distintas plataformas. Pienso en que será algo más complejo que aceptar Cookies, Pixels, trackers, etc. Posiblemente tendremos que _aceptar un contrato y luego una autorización desde nuestra wallet de transferencia. _
Lo que me encuentra con nuevas dudas y dilemas.
¿Será factible el anonimato en las redes?;
¿Bloquearán secciones de sus apps o webs ante anónimos?;
¿Surgirán ecosistemas que competirán por sus clientes?;
¿Tendrá peso la ubicación tanto del usuario como de la personería jurídica de la empresa?.
Si me has leído, por favor déjame tu opinión; me importa el construir y colaborar en equipo! Gracias por leer.
En España, recientemente, a iniciativa de la Secretaría de Estado de la Sociedad de la Información y la Agenda Digital, se ha puesto en marcha un ‘comité de sabios’ encargado de analizar las implicaciones sociales, jurídicas y éticas de la Inteligencia Artificial y el Big Data. El objetivo es crear un Libro Blanco con recomendaciones al respecto y un Código Ético tanto para el sector público y como el privado sobre cómo utilizar estas tecnologías para el bien común, de la sociedad. Se espera que se publique antes del verano. Recomendaciones que, aplicando el sentido común, estarán probablemente en línea con las señaladas hace unas semanas por un grupo de 26 investigadores de universidades como Oxford, Cambridge y Stanford en el que, para evitar usos maliciosos de la Inteligencia Artificial, reclaman que los gobiernos se involucren y colaboren estrechamente con los investigadores; se desarrollen marcos normativos y éticos; que el debate se amplíe a más expertos e incluso inversores; que los científicos identifiquen las mejores prácticas y solo compartan sus hallazgos cuando éstos estén controlados. En definitiva, que todo el mundo tome conciencia de lo que nos estamos jugando con un buen o mal desarrollo de la Inteligencia Artificial. Actuar con cautela pero sin frenar el desarrollo tecnológico. Por ahí debe ir el camino.
A la población con estas tecnologías se le mide, predice y controla.
La ética en la movilidad autónoma DW:
https://youtu.be/34Kz-PP_X7c?t=1848
Yo creo que el acceso a la tecnología y el control extremo que tuvieron algunos gobiernos sobre la población hicieron la diferencia para controlar la pandemia.
Hola, voy a hacer dos aportaciones:
una será antes de ver el documental de “the Social Dilemma”
y otra después de ver el documental.
Esta es ante de ver el documental. podríamos empezar a exponer a apps como Tinder que usa nuestros datos personales de nuestra interacción con la app para generar una base de datos y enviarla a analizar, puede en algun punto se sienta como una invasión o intromisión en nuestra vidas, sobre todo porque no estamos conscientes de ello. puede que si nos avisen de ello en el contrato de usuario, pero es bien sabido que los usuarios normalmente no leen esos contratos. aqui resalto que se deberian hacer formas mas sencillas para tarnsmitir al usuario final el como su información va hacer recolectada y usada.
en cuestión de leyes es claro que en el caso de Latinoamérica (region de donde vivo) falta una regulación efectiva hacia este tipo de servicios, pero no para limitar a las empresas, si no para ayudar a los usuarios a entender mejor las ventajas de las mismas sin violar la privacidad o pasar limites.
Aprendí que hay muchas mentiras en redes sociales ya que se propagan 8 veces mas rapido que la verdad Acerté en que el documental exageraba muchas cosas
Lo que ha hecho Hong Kong si fue un poco extremo, pero necesario ya que gracias a hacerle un fuerte frente a la covid-19 a día de hoy tienen una de las tasas de mortalidad más bajas del mundo: 3 por cada 100,000 personas. Y si, si creo que se lo debería replicar.
Creo que no se deberían compartir en internet todos los datos puesto que puede llegar a un punto de ser peligroso.
En mi opinión en latino américa nunca implementarían esas medidas a aunque deberían, la inoperancia, la antipatía estatal son de otro mundo aquí solo se vela por si mismo y ni hablar de la corrupción que lo volvería aún mas imposible.
Confieso que he sentido mucha intriga, he estudiado ética, la ética es aquella que estudia como se comporta el ser humano frente a otros seres humanos, poniéndolo en términos fáciles, también se dice que es la ciencia que estudia la moral de cada persona, se dice que la moral es aquello que estudia o define como se comporta cada persona cuando no esta siendo observada, basado en esto, ¿como una maquina puede ser ética?, la respuesta es, por si sola no es ética, esta solo sigue las ordenes del código que se esta corriendo en ella, la IA va recopilando datos y dependiendo de como esta este programada tomara una decisión, tomada la pregunta ¿que debe hacer un coche autónomo cuando peatones se cruzan en la calle? dado el caso hipotético si hay x peatones en la calle y hay x pasajeros en el carro, dependería total de si el vehículo esta comprometido con la seguridad de aquellos que portan el vehículo o si esta comprometido con la seguridad del entorno.
dado este caso aparte donde x peatones = x pasajeros, se puede decir que si hay mas pasajeros en el vehículo que peatones cruzándosela la vía la decisión entre comillas mas ética seria no cambiar el rumbo y atropellar a los peatones, ¿y si viceversa? la empresa se vería comprometida con la seguridad de aquellos que lo compraron ¿no?, por ende, no seria una decisión tan ética pero para el bienestar de la empresa creo que lo mejor seria que, aunque x pasajeros < y peatones la computadora del vehículo tome la decisión de salvar a los pasajeros.
imagen tomada de: https://www.abc.es/ciencia/abci-coche-autonomo-quien-debe-salvar-accidente-mortal-inevitable-201810241922_noticia.html
Creo que la acción deliberada de compartir nuestros datos puede traernos consecuencias emocionales a mediano o largo plazo, logicamente en muchos de los casos esta información es utilizada para mejorar la experiencia de un usuario en el uso de ciertos servicios, pero también es cierto que mucha de esta información puede ser manipulada para otros propositos.
Opino que debería de darse más atención a implementar alguna entidad que regule el uso y tratamiento de estos datos, y que pueda informar al usuario al respecto.
Considero interesante enfocar debate ético en 2 vertientes: maximizar ganancias del rubro tecnológico a riesgo de ceder nuestra privacidad y las potenciales formas de control social que puedan apoyarse en la inteligencia artificial.
Con respecto a los sesgos de las app, es la alegoría de la caverna de Platón. La app nos muestra lo que ella quiere que veamos para poder influenciar nuestra opinión. Esto hace que perdamos cada vez mas contacto con la realidad y derivemos en las maquinas nuestras capacidades sensoriales.
Siguiendo con la temática de Hong Kong , me parece una locura para el mundo occidental que te controlen por estar infectado y te persigan como un criminal, es un mas criminal teniendo en cuenta las campañas de concientización del VIH realizadas las décadas pasadas.
Interesante lo de Hong Kong, creo que puede haber un debate muy abierto en el tema, sin embargo el costo oportunidad de lo que hicieron debe ser rescatable.
Hoy en día hay mucho debate sobre la privacidad de usuarios y la administración de los datos que va dejando casi inconscientemente, por eso solicitan regulaciones para estos mercados.
Quien para un debate sobre este tema? 😄
Creo que lastimosamente todos hemos dado grandes cantidades de datos a diversas empresas, queriendo o sin querer.
Ahora, después de escuchar esto está en nosotros decidir si queremos continuar haciendo eso.
Les invito compañeros a ver el documental “el dilema de las redes sociales” en Netflix, la verdad que le deja a uno pensando sobre todo lo que vivimos y todo lo que dejamos como rastro al ocupar muchas plataformas.
Estaba investigando un poco sobre la ética en el manejo de datos e hice este resumen espero que les sirva
NOTA IMPORTANTE: Futuro programador, esta clase y la etica en el desarrollo es más importante de lo que parece en un primer instante, lee esto completo.
En el contexto de la ética, el manejo de la big data y la ciencia de datos plantea una serie de desafíos y consideraciones. Uno de los principales dilemas éticos es el equilibrio entre la privacidad y el beneficio social. Por un lado, el análisis de grandes cantidades de datos puede llevar a descubrimientos valiosos en áreas como la medicina, la investigación científica y el desarrollo de políticas públicas. Sin embargo, también existe el riesgo de violar la privacidad de las personas y utilizar los datos de manera indebida.
Es crucial establecer políticas y regulaciones claras que protejan la privacidad de los individuos y garanticen un uso ético de la información. Esto implica obtener el consentimiento informado de las personas cuyos datos se utilizan, así como garantizar la anonimización y seguridad de los datos.
Además de la privacidad, también es importante considerar la equidad y la justicia en el manejo de la big data. Existe el riesgo de que los análisis de datos sesgados o discriminatorios perpetúen las desigualdades existentes en la sociedad. Por lo tanto, es fundamental garantizar que los algoritmos y modelos utilizados sean transparentes, justos y no discriminatorios.
.
Como matemático y estadístico puedo decir que el problema no está en la tecnología en sí, sino en el uso que se le da a la misma, ocurre con esto similar a como ocurrió con el descubrimiento de la radioactividad, que esta misma en sí no es perjudicial, jamás se imaginó Marie Curie que su descubrimiento sería usado posteriormente para crear la bomba atómica.
Entonces, siempre va a existir una brecha enorme entre el desarrollo tecnológico y el desarrollo humano. En este contexto creo que es muy pertinente aplicar medidas de control de uso de las nuevas tecnologías.
Mi padre como educador dice que por naturaleza el hombre es malo, en el sentido de que si le das un lápiz a dos niños de 3, 4 o 5 años y no le explicas cuales son las reglas de su uso entonces al poco tiempo se estarán sacando los ojos con este objeto.
Entonces, yo no veo mal que nuestros datos estén en la red siempre y cuando existan normativas que regulen el uso de estos.
My opinión es que esto tiene muchos matices buenas , malas , intermedio y creo que tener en cuenta que la es una máquina nosotros como individuos elogiaremos si somos conscientes de lo que podemos hacer que para o sin duda sería el bien estarás propio y también el de los demás siempre no importa que.
Leer autores como Byung Chul Han o Jaron Lanier
Es complejo el tema: cedemos nuestros datos en Internet a cambio de una experiencia más personalizada. Es beneficioso y contraproducente a la vez. Solo hay que poner lo que nos interese en estos sitios.
En el caso profesional, lo ideal es apelar a las buenas prácticas y servir de portavoz de aquella información que surge en los análisis, sin sesgos.
Distinguir información sensible y crear un criterio ético sobre los usos de los datos.
Ética en el procesamiento de imágenes.
Creo que la apndemia del Covid, lo que hizo fue impulsar la forma de como vigilarnos mejor.
Diversos países de Latam, por no decir que la mayoría carece de regulaciones frente a la privacidad y tratamiento de datos,en muchos casos esta información queda expuesta y/o se usa con otros fines.
La tecnología no es el problema, si no cómo la instruimos y para que la utilizamos.
La era de la información ha hecho que los datos se conviertan en uno de los recursos más valiosos del mundo. Sin embargo, su tratamiento plantea una serie de conflictos y retos éticos que deben ser abordados adecuadamente para garantizar el uso responsable y justo de la información. A continuación, se presentan algunos de los conflictos y retos más relevantes en la actualidad:
Uno de los principales retos éticos en el tratamiento de datos es la privacidad. En un mundo cada vez más conectado, se recopilan datos personales de forma constante, lo que puede poner en riesgo la privacidad de las personas. Es importante garantizar que se respeten los derechos de privacidad y que se utilicen los datos personales solo para los fines para los que fueron recopilados.
Los datos pueden contener sesgos y prejuicios que, si no se abordan adecuadamente, pueden llevar a la discriminación. Los algoritmos de aprendizaje automático pueden perpetuar estos sesgos si se entrenan con datos sesgados. Es importante tener en cuenta estos sesgos y trabajar en su eliminación para evitar la discriminación en el tratamiento de datos.
El uso de algoritmos de aprendizaje automático y otras técnicas avanzadas de análisis de datos puede hacer que los procesos de toma de decisiones sean menos transparentes y difíciles de explicar. Es importante garantizar que los procesos de toma de decisiones sean transparentes y comprensibles para evitar decisiones injustas o equivocadas.
La propiedad y el control de los datos son también cuestiones importantes. Quienes recopilan y procesan los datos pueden tener el control exclusivo sobre ellos, lo que puede llevar a desigualdades y abusos de poder. Es importante garantizar que los datos sean propiedad de quienes los generan y que se respeten sus derechos de control sobre ellos.
La ciberseguridad es un aspecto clave en el tratamiento de datos. Los datos pueden ser robados o manipulados, lo que puede tener graves consecuencias para las personas y las organizaciones. Es importante garantizar la seguridad de los datos y tomar medidas adecuadas para evitar su robo o manipulación.
En resumen, el tratamiento ético de los datos es fundamental para garantizar un uso justo y responsable de la información. Los conflictos y retos actuales en este ámbito deben ser abordados de forma adecuada para evitar consecuencias negativas tanto para las personas como para las organizaciones.
FaceApp y Tinder han sido objeto de controversia debido a preocupaciones éticas relacionadas con el tratamiento de datos personales. En el caso de FaceApp, la aplicación de edición de fotos se volvió viral en 2019 debido a su capacidad para envejecer las fotos de los usuarios. Sin embargo, surgieron preocupaciones sobre la privacidad de los datos ya que la aplicación requería el acceso a la biblioteca de fotos del usuario y almacena las imágenes en sus servidores en Rusia.
En el caso de Tinder, la popular aplicación de citas ha sido criticada por su falta de transparencia en el uso de datos de usuario. En 2018, un grupo de usuarios presentó una demanda contra Tinder, alegando que la aplicación había revelado información personal, incluyendo la orientación sexual, a terceros sin el consentimiento de los usuarios.
Estos casos resaltan los conflictos y retos actuales en el tratamiento de datos personales, especialmente en el ámbito de la tecnología y las redes sociales. La privacidad de los datos y la transparencia en su uso son temas importantes que deben ser abordados por las empresas y regulados por las leyes correspondientes para proteger los derechos de los usuarios y prevenir posibles abusos.
Mi concepto con respecto a la pregunta sobre la ética en el mundo de los datos, es que si creo que es amenazante lo que se viene, no es la sensación de libertad sino todo lo contrario: el hombre presa y no justamente del mismo hombre, sino de màquinas, algoritmos, código allà y acà para todo lo que concierne a la vida misma con propósitos muy variados pero que confluyen en dos muy simples: poder y dinero.
Por ejemplo un buen cambio que podría implementar facebook es que para apertura una nueva cuenta debas subir una fotografía recientes capturada por la aplicación eso impideria que se creen perfiles falsos
Si por alguna razón no dispones de una cuenta Netflix para ver el documental The Social Dilemma, lo podrás ver desde el siguiente enlaces gratis y en español latino: https://go.qhero.net/tihrA | Gracias a https://qhero.net
En lo personal, considero que es muy difícil pasar bajo perfil en el mundo digital y no exponer nuestros datos, ya que si queremos disfrutar de las ventajas que nos ofrecen las apps y plataformas digitales debemos aceptar sus términos y condiciones, si no, no podemos ser usuarios de ellas, tenemos dos opciones o decidimos ser parte del sistema digital social o abstenernos y excluirnos digitalmente del sistema social.
Difícil, yo acepto términos y condiciones, me expongo pero igual trato de sacarle más provecho que el que terceros puedan sacar con mis datos.
A 3 años de esta clase, sigue ocurriendo todo el seguimiento que hace el gobierno de Hong kong con su población, a mi punto de vista es impresionante como tiene controlado en el gobierno Chino a su población de tener codigo QR para poder ingresar a cualquier lugar,
Excelente tema, realmente para reflexionar 😊
Hola. Les dejo este documental sobre ética en inteligencia artificial de la DW de Alemania. Aquí abordan el concepto de la ética y las alucinaciones sociales sobre las interacciones humano/maquina. También recomiendo el libro El Tunel del yo de Thomas Metzinger https://www.youtube.com/watch?v=sHVwwriaT6k
Las redes sociales son plataformas tan utilizadas como también peligrosas si no tomamos las medidas adecuadas. En determinadas ocasiones nuestra privacidad puede estar en peligro. Ya sabemos que los datos e información personal tienen un gran valor en la red. Eso significa que hay muchas empresas de marketing que puede buscan la manera de obtenerlos y así poder incluirnos en campañas de Spam, enviar publicidad orientada o incluso vender nuestros datos a terceros. En este artículo vamos a hablar de qué problemas comunes de privacidad hay en las redes sociales.
Es importante considerar la ética en el uso de datos y la inteligencia artificial (IA) debido a que estos pueden tener impactos significativos en las personas y en la sociedad en general. A continuación, menciono algunos puntos a considerar al tratar de manejar de manera ética los datos y la IA:
Transparencia: es importante ser claro y transparente sobre cómo se están usando los datos y la IA, y proporcionar información suficiente para que las personas entiendan cómo se están utilizando sus datos.
Responsabilidad: es importante asumir la responsabilidad por el uso de los datos y la IA y asegurarse de que están siendo utilizados de manera responsable y justa.
Privacidad: es importante proteger la privacidad de las personas y asegurarse de que se están utilizando sus datos de manera adecuada y consentida.
Equidad: es importante asegurar que el uso de los datos y la IA no perpetúe las desigualdades existentes ni cause daño a ciertos grupos de personas.
Integridad: es importante garantizar que los datos y la IA sean precisos y confiables y que no se utilicen de manera engañosa o manipuladora.
En general, es importante ser consciente de cómo se están utilizando los datos y la IA y asegurarse de que se están utilizando de manera responsable y ética.
un debate etico es el SESGO POLITICO Platzi, desde su CEO hasta los cursos. porque este ejemplo? hong kong? enserio? no existia otro?
freddy esta constantemente BOMBARDEANDO alumnos con su postura politica EN YOUTUBE en nombre de PLATZI, (el no tiene un canal privado ) y ahora las clases.
Ademas esta utilizando el fanatismo latinoamericano a su favor
NO ETICO!
es una VERGUENZA.
esto es falta de etica
y si realmente quisieran usar el ejemplo de HONG KONG, una forma de imparcialidad podria ser utilizar otro nombre. NO?
EL LADO NEGATIVO DE PLATZI ES EL SESGO POLITICO
Más que un cambio de la ética o una ética que cambia con el cambio de la tecnología se requiere preguntarse si realmente se aplica o al menos se conoce los principios fundamentales de la ética y si la sociedad la aplica. El cambio de las herramientas no quiere decir que necesariamente cambie la ética, antes hay que tratar de enterderla y ver como ralemenete se aplica en la realidad.
La sociedad se va digitalizando a un ritmo acelerado, y esto podría generar un conflicto con nuestra idea de libertad. Es importante saber cuando se esta cruzando los limites de la ética, asimismo saber cuanta libertad estamos cediendo a cambio de un mayor avance tecnológico. Que debate mas complejo.
Ética y tratamiento da datos, es un tema que uno creería que le dan un buen manejo, pero también deja mucho que pensar, si esta información l avenden a otras empresa para su beneficio.
Concuerdo, es una libertad que le estamos sediendo a otros.
Esto entra en un debate más profundo ya que lo que esta bien para unos esta mal para otros.
Quizá un foro sobre este tema seria genial
Hola a todos! Observo en la base de datos de VENTAS_2020 que existe inconsistencia en los ID de productos, donde un mismo producto tiene más de un ID, lo cual es un error porque imposibilita analizar los datos de forma coherente.
Realmente es una discusión que para mí nunca dejará de ser contradictorio, porque esta lo que se decía de cuando es por ley, por ley el estado tiene acceso a tus datos o puede incluso controlarte con ellos, un ejemplo de ello es, en base a tus datos deciden si te dan visa o no, y eso es lo normal en la sociedad, pero que pasa cuando el estado es autoritario y usa esos datos en contra del pueblo.
Ahora bien, por otro lado tenemos los datos que tienen todas estas empresas de tech que para nosotros puede ser gratis, pero del que no somos consientes de la cantidad de información que brindamos diariamente a ellas y que es con ello con lo cual esas empresas monetizan su modelo de negocio, pero va más allá, las empresas algunas no solo se limitan a usar esa información para que la herramienta sea cada vez más eficiente, sino que también venden nuestros datos para x fin, un ejemplo es Facebook.
La pregunta es el estado o lo privado, y ahí surge otra, la regulación de los datos quién la hará, quién será realmente auditor de esa información sin usarla a su propio beneficio.
Con respecto a mi postura en ello, como individuo trato de dar poca información, sin embargo, en la actualidad es imposible, porque así no publiques en ninguna red social, tienen tu información en el celular que es igual de vulnerable
Soy abogado, he dejado de ejercer en virtud de lo obsoleto q ha quedado el derecho, x lo menos en Arg, en virtud del ritmo vertiginoso de la tecnologia. Lo de Hong Kong, excelente, caso contrario, los muertos, q fueron millones en el mundo, podrian haberse multiplicado en forma amenazante incluso poniendo en peligro la raza humana, lo q no sucedio en virtud de la vacuna, tan criticada tmb. Es demasiado complejo el tema datos personales, y lamentablemente se le ha dado poca importancia en mi pais, al punto q la ley 21526 de datos personales va a cumplir ya creo 22 años. Una verguenza, ni actualizacion ha habido. Eso, ya da una pauta del atraso. Excelente profe, cada momento estoy disfrutando aprender x ahora data analyst, quizas en un futuro scientist.
Las redes sociales teiene mas informacion de nosotros que nostros mismos!
Creo que estamos en un mundo donde los algoritmos recomiendan cosas pero hace que las personas tomen posturas de información que no necesariamente es correcta, que se sesguen a una verdad
Want to see more contributions, questions and answers from the community?