A煤n no tienes acceso a esta clase

Crea una cuenta y contin煤a viendo este curso

Operaciones sobre DF

15/25
Recursos

Aportes 7

Preguntas 0

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesi贸n.

脫scar menciona correctamente que los DF son inmutables en Spark, sin embargo, para algunos el hacer la siguiente operaci贸n, resulta confuso:

deportistaOlimpicoDF=deportistaOlimpicoDF.withColumnRenamed("genero","sexo")\
.drop("altura")

A simple vista da la impresi贸n que estamos modificando el DF: deportistaOlimpicoDF, renombrando una columna y eliminando otra. Esto no es verdad, en realidad se est谩 creando una copia del DF original: deportistaOlimpicoDF,

Les comparto 茅ste excelente enlace d贸nde explican 茅sta casu铆stica.

El curso es muy interesante aunque recordemos minuto 8:06 es mala practica hacer un import *

Otra manera que se me hizo mas facil de leer un csv es la siguiente:

deporte = sql_context.read
 .csv("files/deporte.csv", inferSchema=True, header=True)

De esta manera no tengo que definir el esquema por cada tabla.

Recordar que el archivo de deportistas es 鈥渄eportista2.csv鈥

interesante

Es mala practica hacer un import * como se hace en el minuto 8:06 debido a que esto importa funciones que sobreescriben algunas que vienen por defecto en Python, adem谩s de que luego vez funciones que no sabes de qu茅 paquete viene y puede causar confusi贸n.

Para estos casos se recomienda importar el paquete con un alias, algo tipo:

import pyspark.sql.functions  as f

ya luego puedes acceder a tus funciones de esta forma:

f.col(...)

M谩s legible y sin riesgos de ning煤n tipo.

A mi no me sali贸 Dimitrios Loundras como el mas joven. Me salieron a partir de 11 a帽os, no de 10 y sigo sin entender porqu茅.