Aún no tienes acceso a esta clase

Crea una cuenta y continúa viendo este curso

Curso Práctico de Storage en AWS

Curso Práctico de Storage en AWS

Carlos Andrés Zambrano Barrera

Carlos Andrés Zambrano Barrera

Casos de uso.

16/37
Recursos

Aportes 25

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesión.

Actualmente en la empresa que laboro estamos desarrollando una aplicación todo en uno para pequeñas y medianas empresas, la app maneja bastante imágenes y archivos, anteriormente lo almacenábamos en la base de datos como binario pero esto era muy lento, y decidimos usar S3 por su rapidez y la gran cantidad de ventajas, y ahora nuestra app es mucho mas rápida.

Si quiren hacer diagramas para aws les recomiendo Cloudcraft es ¡nave!

Un caso de uso real que trabajé con s3 fue exponer un SFTP con filetransfer y utilizar buckets de S3 para compartir información con un aliado, de esta manera pudimos soportar el intercambio de información sin perder las ventajas de los servicios de AWS que se pueden integrar con S3 (KMS, Cloudwatch, Eventos para llamar lambdas y SNS)

El caso de uso por excelencia es la forma como Netflix almacena sus peliculas y hace uso de la infraestructura de S3 para tener una alta disponibilidad y accesibildad de sus peliculas a lo largo y ancho del planeta.

Algunos casos de uso:

  • Guardar recursos estáticos de una página web(js, css, html) y integrar el bucket con cloudFront para hacer un CDN de esos recursos y asi disminuir la latencia de obtención de dichos recursos.
  • Guardar imágenes del perfil de usuarios, reportes, documentos en general, buckups.
  • Guardar información de archivos(txt, xml, csv, json) y usar funciones de lambda o integrarlo a un sistema para que procese dicha información y genere información procesada en un una db(sql o noSql).

Lo usaria para analisis predictivo de uso de aplicativos de la empresa guardando el log de cada sistema en S3 y usando Macie o EMR para transformar la data en algo legible para su analistas.

muy interesante lo que hace EMR elastic Map Reduce junto con glue ETL extract Transform and Loaded. que potentes esos tools.

Usé S3 justamente para migrar una base de datos transaccional que tenía en RDS y almacené las tablas como archivos parquet usando glue jobs. Posteriormente, esos parquet files los convertía en datos estructurados y los procesaba en redshift para modelar los datos y que se sacaran insights de ahí.

Hasta ahora ha hablado de un gobierno virtual que tiene muchas caracteristicas y funciones llamado AWS

Lo estamos usando para realizar Backups. Jenkins lo envía el S3. Y tenemos el ciclo de vida para que elimine la cada que se junten 5

Muy buen caso de uso.

Que clase tan geniall!

reto almacenamiento en S3, alguno quiere trabajar en equipo?

Alguien quiere trabajar en equipo para el reto? 😃

en el trabajo realizamos log de la alta de clientes, estos archivos se pueden analizar para ver la segmentacion de clientes para marketing

suer 😃 gracias buen caso de uso

Casos de uso relacionados con el procesamiento de datos generados por IoT usados en diferentes industrias como seguros, medico, petróleo, entre otras. En la ingesta de información S3 almacena datos que proviene de los dispositivos IoT que se integran a S3 con AWS SDK de lenguajes de programación o con servicio AWS de IoT. En la interacción con servicios Glue & EMR se procesan los datos estructurados o no estructurados (raw) en batch para refinar la información, también S3 puede integra con servicios para procesar objetos en tiempo cercano al real con Trial, Spark entre otros servicios. Por ultimo mostrar la información procesada con Macie Dasbord.

Un caso de uso relacionado sería, el uso de archivos de texto plano almacenados en una aplicación web, que con S3 se lean estos archivos a través de archivos JSON autogenerados se almacenen en un data lake y a través de un procesamiento de datos ETL y el apoyo de Glue para la predicción de datos relevantes en el data lake puedan ser visualizados por los usuarios.

En la organizacion que estoy, estamos usando dos escenarios, un almacenamiento de datos S3 estandard para lo que es la data del dia a dia, S3 IA para repositorios de mas de dos años, y tambien incorporando el uso de herramientas analiticas externas y S3, para procesamiento de patrones de compra de servicios y manejo de marketing y pautas publicitarias.

En la empresa donde trabajo actualmente tuve que escribir un script en Bash que ayudara a migrar a un bucket de S3, todos los archivos que los usuarios de la aplicación han subido anteriormente al disco local del servidor, y ahora la velocidad y facilidad de acceso desde la aplicación se vió altamente favorecida, la aplicación carga 2x o incluso 3x mas rapido porque ya no tiene que buscar dichos archivos en el servidor de la misma sino que ahora los busca en S3

Un ejemplo estoy implementando S3 en un sistema hecho en laravel tipo CRM, que administra documentos de usuarios, es decir, el sistema guarda los archivos en S3 y no en el servidor local, esto con el objetivo de que aumenta la cantidad de archivos que suban los usuarios no se ve comprometido el servidor por espacio en disco, aparte que se mantiene un respaldo por medio de los versoniamientos que los archivos en caso que se borre por error alguno.

Que un sitio estático esté conformado full HTML, JS, CSS…
No impide que no podamos hacer que fluya data estructurada en esa web.
Contamos con AJAX (JSON) para hacerlo !

En mi empresa se construyó un dashboard con Grafana, analizamos unos logs que sacamos de Cloudwatch (los ponemos ahí con un demonio que corre sobre unas instancias de ec2) pero también se podrían usar S3.

Esto permitió que después de aplicar algunos cambios a dichos logs podamos identificar con facilidad cuando un usuario realiza demasiadas solicitudes incorrectas o empieza a consumir un servicio más de la cuenta y notificarle de dichos errores para que corrija problemas en su aplicación antes de que el mismo se de cuenta de los mismos.

Además, podemos monitorear cómo se comporta en tiempo real cada servicio:

  • Cuántas solicitudes llegan por segundo.
  • Cuál es el tiempo de respuesta por servicio (Monitoreo de SLA)
  • Cuál es el cliente que consume más un servicio.
  • De todos los servicios: cuál es el cliente que más consumos hace => Clientes Paretto que llaman en mi empresa
  1. Guardar assets de una aplicación o website.
  2. Desplegar una sitios estaticos y con route 53 o CloudFront para manejo de cname.
  3. Almacenamiento de reportes en un sistema SCADA, sensores de una fabrica y operaciones de alguna maquina.

yo voy a conectar un ec2 con s3 para almacenar las facturas fiscales, a los 6 meses pasarán a IA y al paso de un año, estas se mandarán a glacier