1. Prikazati ID proizvoda i prosječnu vrijednost prodaje za svaki od njih. Spisak transakcija je u tekstualnom fajlu (Transaction date, time, customer ID, product ID, quantity, price). Koristiti RDD objekte i Spark Core funkcionalnosti.


2-1. Tekstualni fajl data2.txt sadrži ID-eve proizvoda koji su kupljeni u jednoj transakciji. Jedan red u fajlu odnosi se na jednu transakciju. Prikazati ID-eve proizvoda koji su kupljeni bar jednom u posljednje 3 transakcije. 


2-2. U nekom data centru se svakog dana vodi evidencija o tome koje procesorske jedinice su premašile propisanu radnu temperaturu tokom tog dana. Ti podaci su dati u fajlu data2_2.txt. Svaki red predstavlja jedan dan, a brojevi unutar reda predstavljaju ID-eve procesorskih jedinica koje su tog dana dostigle temperaturu veću od propisane. Prikazati ID-eve procesorskih jedinica koje su se pregrijale tri dana uzastopno (za dati primjer bi to bili brojevi 56, 10 i 25).


3. Podatke iz fajla data3.txt učitati u vidu DataFrame strukture iz Spark SQL modula, a zatim napisati naredbe koje:

a. kreiraju dataframe sa kolonama storeId i division.
b. kreiraju dataframe sa svim kolonama osim sqft i customerSatisfaction.
c. kreiraju dataframe sa redovima za koje je sqft < 25000.
d. kreiraju dataframe sa redovima za koje je sqft < 25000 OR customerSatisfaction > 30.
e. kreiraju dataframe sa novom kolonom sqft100 koja je 1/100 dio vrijednosti kolone sqft.
f. kreiraju dataframe sa novom kolonom numberOfManagers koja za sve redove sadrži 1.
g. kreiraju dataframe sa novom kolonom sqftMean koje sadrži prosjek kolone sqft.
h. vraćaju broj redova u storesDF.
i. računaju sumu vrijednosti iz kolone sqft za sve divizije (kolona division).
j. kreiraju uzorak sa 15% redova po pravilu bez zamjene.
k. štampaju šemu od storesDF.
l. kreiraju 12 particija, pod pretpostavkom da je storesDF sa 8 particija.
m. kreiraju novi dataframe koji je rezultat outer join-a storesDF sa employeesDF po koloni storeID.
n. kreiraju novi dataframe koji je rezultat cross join-a storesDF sa employeesDF.
o. upisuju storesDF u fajl filePath u json formatu.
p. učitavaju csv fajl filePath u novi dataframe.


