Transcript for:
Pengenalan Data Analytics dan Spreadsheet

Halo-halo, Revoneers. Selamat malam, teman-teman semuanya. Apa kabar di malam hari ini? Kita ketemu lagi di serangkaian acara mini-course.

Sudah masuk di agenda week 1, day 3. Gimana, teman-teman? Perasaannya, apakah sudah semangat semuanya? Sudah excited untuk ikutan sesi hari ini? Boleh dong diramein kolom chat-nya. Kira-kira apakah teman-teman di sini sudah pada semangat atau belum?

karena hari ini agendanya seru banget ya teman-teman. Mungkin kalian juga udah sempat ngintip-ngintip nih di grup agendanya bakal ada apa. Nah, sambil nunggu teman-teman yang lain untuk bergabung juga supaya nanti nggak ketinggalan ya info dan juga materi-materinya. Sambil aku membuka dulu nih sesi di malam hari ini. Seperti yang teman-teman udah ketahui, hari ini bakal ada practical simulation dan juga Q&A session.

Dan kalian akan ketemu sama salah satu pembicara. yang akan membawakan sesi simulasi hari ini, yaitu adalah Kak Regita Hikmatus Zakia atau yang biasa disapa dengan Kak Regita. Nah, Kak Regita ini sekarang bekerja sebagai data analis expert dan juga merupakan salah satu instruksor yang mengajar di full stack program loh teman-teman.

Jadi kalau teman-teman ada yang udah daftar nih ke full stack data analytics program di Revoyu, mungkin bisa ketemu juga sama Kak Regita nanti di kelas full stack-nya ya. Nanti kita kenalan lebih lanjut sama karya kita, tapi aku mau infoin dulu agendanya nih. Teman-teman, hari ini bakal ada materi practical simulation bersama dengan instructor, akan kenalan langsung sama salah satu tools yang memang digunakan ya di bidang data analytics, dan nanti akan hands-on simulasi juga menggunakan tools tersebut. Jadi pastinya seru banget ya. Setelah itu ada sesi tanya-jawab juga, dan terakhir aku mau ingetin tentang tugas, terutama buat teman-teman yang belum mengerjakan, nanti boleh disimak sampai habis supaya nggak ketinggalan informasi.

Dan teman-teman nanti bisa tahu juga ya syarat untuk dapetin sertifikat di mini course kali ini. So, teman-teman nanti selama dengerin sesi, kalau punya pertanyaan, boleh langsung ditulis aja di kolom chat, supaya nanti bisa dipilih-pilih juga dan dibacakan di sesi tanya jawabnya. Oke, kalau gitu kita langsung masuk aja ke sesi Practical Simulation Part 1. Dan teman-teman hari ini akan mempelajari tools spreadsheet ya, seperti yang teman-teman juga udah lihat di grup.

dan udah dibagikan juga dataset untuk teman-teman bisa download dulu. Tapi tenang aja, kalau teman-teman nanti belum sempat download, bakalan dijelasin juga langkah-langkahnya ya. Nah, kita bisa panggilkan dulu Kak Regita untuk menyapa teman-teman yang udah hadir ya di malam hari ini. Halo, selamat malam Kak Regita. Halo, hai.

Selamat malam Cita dan teman-teman semuanya. Wah, gimana nih Kak Regita kabarnya? Oh, udah.

Siap untuk cerita ke teman-teman tentang spreadsheet nih di malam hari ini? Iya, kabarnya baik banget Dan hari ini aku semangat banget sih untuk share dengan teman-teman Bagaimana caranya kita hands-on menggunakan spreadsheet Terutama menggunakannya di data cleaning maupun data analytics Jadi nanti kita pasti akan fokus banget mempelajari itu lebih detail ya Wah, ini udah penasaran nih kayaknya nih teman-teman semua yang hadir So, tanpa berlama-lama, boleh nih aku langsung offer aja sesinya. Dan mungkin nanti slideshownya boleh di fullscreen ya, Kak.

Biar teman-teman bisa lihat juga materi dari karya kita. Nah, jangan lupa siapin catatan, teman-teman. Karena sebelum kita latihan, kalian akan dengerin dulu ya penjelasan tentang spreadsheet-nya.

Dan gimana sih sharing-sharing dari karya kita. Oke, kalau gitu karya kita semisal sudah ready, boleh langsung aku persilahkan. The floor is yours.

Oke, terima kasih banyak Cita. Jadi selamat malam teman-teman, selamat datang di simulasi kami. Ini adalah simulasi pertama di spreadsheet yang kita akan pelajari lebih detail apa itu data analitik di spreadsheet, bagaimana kita melakukan analisis sesuai kebutuhan terutama tentang data cleaning, data visualization, dan juga analitik.

Nah, seperti apa sih prosesnya? Itu nanti akan kita pelajari. Jadi dengan objektif malam ini, kita tuh pengennya kita mengerti bagaimana tes atau tugas atau pekerjaan yang perlu kita lakukan apabila kita menjadi data analis.

Nanti kita juga perlu mengetahui bagaimana menggunakan spreadsheet. Kita juga ingin mengetahui kenapa sih harus melakukan data cleaning. Sebelum memulai, ada baiknya aku berkenalan dulu, jadi nama ku Regita Zagia.

Beberapa working experience di bidang data ada seperti dari beberapa brand yang tertulis di sini dan juga mungkin ketika dihitung sudah hampir 4 tahun ya, experience ku di bidang data analytics. Tetapi selain menjadi praktisi di bidang data analytics, aku juga Mengajar, jadi ada teaching experience di Revo U sepanjang 2 tahun ya kira-kira. Dan background aku memang dari statistics. Nah sekarang kita masuk nih ke materi kita yang paling penting. Jadi apa sih data analisis itu?

Data analisis itu ada 2 kata, ada data, ada analytics. Data Apa sih data? Kita sering banget dengar kata-kata data. Data lebih berharga daripada minyak gitu. Tapi apa sih data?

Data itu adalah kumpulan. Jadi kalau kumpulan kan berarti gak cuma satu dua ya, tapi banyak. Kumpulan dari nilai-nilai yang akan memberikan info kalau kita analisis.

Nah, di sini ada kuncinya nih. Kuncinya adalah... akan memberikan info kalau kita analisis.

Kalau nggak memberikan info gimana? Bisa kita katakan itu belum tentu adalah data. Contohnya data apa sih?

Bisa saja yang pertama nilai matematika dari murid-murid SMP 1 pagi sore. Nah, di situ kan pasti detail ya. Ada namanya, ada match score-nya, ada nilai matematikanya.

Nah, itu bisa kita olah. bisa kita analisis sehingga kita bisa mengetahui informasi. Informasi dari nilai matematika murid-murid di SMP 1 pagi sore. Ada juga contohnya di kehidupan yang lebih luas lagi. Sebagai contoh ada Consumer Price Index di tahun 2021. Nah data-data ini identik dengan angka.

Tetapi tidak terbatas ya, tidak terbatas oleh angka. Bisa aja data yang kita punya itu dalam bentuk gambar, bisa sekali. Bisa dalam bentuk tulisan, teks. Mungkin teman-teman sering lihat di social media ada review makanan, review skincare, atau review suatu barang ditulisnya pakai teks. Nah, itu juga merupakan suatu data.

Bisa enggak data berupa audio? Bisa sekali. Jadi data ini tidak terbatas, tetapi dalam konteksnya lebih sering data itu dalam bentuk angka. Jadi memang kita highlight di sini biasanya berupa angka.

Kalau analytics apa? Analytics itu adalah ilmu yang mempelajari caranya mengambil info dari data, kemudian kita ambil. konklusinya, kita ambil kesimpulannya. Sebagai contoh, ada case kita punya data nilai matematika anak SMP 1 pagi sore. Analisisnya bisa banget nih, kita tuh pengen banget mengerti, memahami bagaimana sih skill matematika dari murid-murid di SMP 1 pagi sore dalam tahunan.

Nah, karena kita pengen mengerti nih bagaimana skill matematika anak SMP 1 pagi sore, berarti kita bisa menganalisisnya dengan cara apa? Mungkin nanti kita bisa bicarakan lebih detail. Bisa pakai chart, bisa kita lihat rata-ratanya. Jadi, ada banyak sekali yang bisa kita lakukan.

Untuk melakukan data analitik, banyak sekali tools atau alat yang bisa melakukan hal tersebut. Ada banyak, tetapi yang paling all-rounder atau yang paling lengkap dari ujung ke ujung ada itu kita adalah spreadsheet biasanya. Apa sih spreadsheet itu? Mungkin teman-teman sudah familiar. Spreadsheet itu intinya adalah worksheet digital.

Jadi dia menyimpan data. Biasanya worksheet itu kita bagi menjadi dua jenis ya. Ada yang dia dari komputer kita langsung, dari laptop biasanya pakai Microsoft Excel. Bisa juga dari online, jadi datanya kita simpan dengan online, itu pakai Google Sheets. Nah, Microsoft Excel itu...

Biasanya kita tidak perlu internet untuk menjalankan fungsi-fungsi atau formula di dalamnya. Jadi karena dia ada di install, kita punya aplikasinya di laptop. Tapi tanpa aplikasi kita bisa menggunakan Google Sheets. Kalau Google Sheets ini dia terkonek dengan internet online. Jadi teman-teman ketika mengedit, membuat formula itu harus online.

Tetapi downside-nya, tetapi positive side-nya adalah kelebihannya adalah teman-teman tidak perlu menginstall. Sehingga... Dalam pekerjaan sehari-hari, terutama ketika menjadi data analis, kita itu sering banget menggunakan Google Sheets. Sangat mudah untuk sharing dengan sesama pengguna. Jadi ketika aku menganalisis, aku share ke teman-teman, itu bisa banget.

Jadi yang paling sering biasanya pakai Google Sheets di pekerjaan. Nah, seperti apa sih spreadsheet itu? Spreadsheet ini seperti yang kita lihat ya di layar kita sekarang, ini ada screenshot-an dari Google Sheets yang dia menggambarkan interface-nya, menggambarkan bentukannya seperti apa.

Nah, ada tiga fitur, ada tiga apa ya. Tiga hal yang paling penting dalam spreadsheet yang perlu dipahami itu adalah cell, row, column. Cell, bahasa Indonesianya cell juga, itu adalah satu kotak, sebuah kotak yang warna merah.

Row atau baris itu adalah yang memanjang. Jadi ini yang warna kuning, ini adalah suatu row. Kalau column, column.

Berarti yang dia ke bawah, ke arah bawah, yang warnanya biru. Dia ke warna bawah, ini kolom C. Kalau yang kita lihat baris, ini adalah baris 3. Kalau sel, sel di sini adalah sel yang merah, ini berarti sel A2.

Kenapa A2? Karena dia pertemuan antara kolom A, ini kolom A. dan juga baris 2. Jadi, cell itu adalah pertemuan antar kolom dan baris.

Nah, biasanya data kan tadi konteksnya biasanya berupa angka. Nah, data itu kalau kita tampilkan dalam spreadsheet, biasanya tampilannya seperti ini. Jadi, dia berupa suatu tabel.

Suatu tabel. Seperti apa tabelnya? Ini adalah contoh.

Di sini kita punya 4 kolom, user, product, product price, dan payment option. Kita punya beberapa baris, ada 1, 2, 3, and so on. Jadi ada banyak ke bawah, dari A-nya sampai header. Jadi ada banyak.

Nah, yang kolom ini, user, product, product, price payment itu menggambarkan sifat. Menggambarkan sifat atau bahasa statistiknya, bahasa data analyticsnya itu kita sebut attribute. Attribute or variable.

Sifat apa sih yang dimaksud jadi contoh? Kolom satu itu menunjukkan sifat user atau nama user. Betul ketika kita cek baris satuannya. Baris 4, Ambrosia, and so on. Berarti dia memang menunjukkan username.

Kolom 3 menunjukkan sifat yang dinamakan product price. Berarti sudah tentu bahwa itu adalah harga produk. Harga produk yang dibeli oleh siapa?

Oleh si A-nya, oleh si Ambrosia. Payment option, berarti pembayarannya. Nah, kalau yang mendatar itu adalah unit atau observation. Di sini kita lihat ada banyak sekali observasinya dari Anya, Ambrosia, Frank, dan Gitter.

Dan setiap user itu membeli produk yang berbeda. Ada blues A, blues B, pants A. Jadi, tabel itu biasanya berupa dari kolom dan baris.

Kolom menunjukkan attribute atau variable, baris menunjukkan unit. Nah, proses data analisis, teman-teman, itu adalah proses yang bisa kita bilang lumayan panjang ya. Karena kita biasanya butuh diskusi, kita butuh melakukan hal-hal yang teknikal seperti data cleaning, kita perlu ngoding, kita perlu statistics, and so on. Ada panjang sekali. Yang pertama itu adalah data requirement gathering, berarti intinya dia mencari data apa yang mau kita pakai, menentukan data apa yang mau kita pakai.

Biasanya prosesnya itu lebih banyak diskusinya, sama teman-teman satu kelompok pekerjaan, sama teman-teman satu tim, atau yang lain. Yang jelas ini kita butuh gathering. kita bertemu untuk menentukan apa sih kebutuhannya.

Nah, lalu yang kedua itu adalah data collection. Apa itu data collection? Data collection adalah pengumpulan data.

Data yang ada, data yang kita tahu mau kita pakai, itu dikumpulin. Nah, mungkin lebih detailnya nanti ketika di kelas, di kelas Revoyu, teman-teman yang sudah daftar. akan tahu ya bagaimana proses data requirement maupun data collection. Nah, untuk data cleaning, data cleaning ini yang akan kita pelajari hari ini juga, itu adalah proses pembersihan data. Karena tidak selalu data yang kita punya itu dalam kondisi siap analisis.

Hampir mayoritas, 100%, data yang kita terima itu biasanya kotor. Jadi bisa kita bilang data cleaning adalah proses yang wajib. Nah setelah kita punya data, kita bersihkan, datanya sudah bersih, baru kita lakukan analisis, kemudian kita interpretasi, kemudian kita visualisasi. Apa itu data cleaning?

Data cleaning adalah pembersihan data. Apa yang kita bersihkan? Yang kita bersihkan adalah data yang korup dan inaccurate.

Apa tuh? Data yang korab itu artinya data yang rusak dan juga inaccurate, tidak akurat. Jadi ada dua ketentuan kapan kita bisa bilang data itu harus kita bersihin.

Ketika data itu, ketika tabel itu mengandung data atau mengandung nilai yang rusak dan nilai yang tidak akurat. Itu adalah proses data cleaning. Kenapa kita harus melakukan data cleaning?

Tentu saja ketika kita memasak, memasak makanan, kita menggunakan bahan yang berkualitas sama bahan yang tidak berkualitas, rasanya pasti beda ya. Pasti kita lebih suka dengan makan makanan yang berkualitas bahannya. Sama dengan halnya data analytics.

Ketika kita menganalisis data, data kita sudah kotor dari sananya, hasil yang kita analisis pun malah tidak baik, malah tidak memberikan manfaat. Justru bisa banget hasil analisisnya itu bisa membuat salah paham, bisa membuat kita mengambil keputusan yang salah. Itu bahayanya menggunakan data yang kotor. Maka dari itu data cleaning adalah salah satu step yang terakhir.

paling wajib dalam analitik itu adalah step fundamental jadi sangat harus kita pakai gitu Nah mungkin sudah mulai bertanya-tanya nih oke memang sepenting itu lalu bagaimana caranya setiap kasus setiap data yang kita punya itu pasti punya tingkat kekotoran tingkat ketidakrapian itu beda-beda Ada data yang kita dapat itu cleaningnya 5 menit, 10 menit kelar itu ada. Tapi banyak sekali case data ketika kita dapat itu kayaknya 2-3 hari membersihkan itu bisa gitu. Karena memang sekotor itu dan banyak hal yang harus kita cek, harus kita recheck lagi. Jadi prosesnya adalah tidak tentu. Ada kasusnya cepat, ada kasusnya lama.

Jadi maka dari itu each case, setiap case, dan setiap dataset akan membutuhkan data cleaning methods, cara data cleaning yang berbeda. Jadi itu hal yang harus digarisbawahi, setiap data punya cara membersihkan yang berbeda. Tapi secara garis besar, stepnya itu begini. Biasanya kita akan merimove yang pertama kali. Kita harus remove-remove, kita harus menghapus-hapus.

Jadi dari data yang kita punya, yang jelek, yang korup, yang kita tidak penting untuk gunakan, itu kita hapusin. Jadi di awal kita hapus yang tidak baik. Nah setelah kita hapus yang tidak baik, sisanya ini yang kita quote-unquote sudah bersih dari hal-hal yang perlu kita hapus, itu kita cek lagi.

Ada yang perlu kita fixing nggak? Ada yang perlu kita perbaiki nggak? Kalau ada yang perlu kita perbaiki, itu yang harus kita perbaiki.

Jadi ada dua garis besar dalam data cleaning. Yang pertama penghapusan, yang kedua perbaikan atau fixing. Jadi ada dua.

Yang dihapus apanya? Kita bisa menghapus duplikat. Kita bisa menghapus irrelevant data, kita bisa menghapus missing data, bisa menghapus juga outlier.

Nanti kita lihat. Nah, removing duplicates. Apa sih duplicate gitu?

Apa sih duplikasi gitu dalam suatu data? Duplikasi adalah suatu kondisi, suatu data yang dia itu terulang. di dalam dataset kita.

Karena dia berulang, ada dua baris yang isinya exactly tepat sama, maka dari itu kita bisa menghapus duplikasi itu. Jadi untuk menghapus duplikasi biasanya kita bisa melihat dulu ada nggak nih yang datanya duplicate, datanya persis sama. Kenapa sih?

Bisa terjadi duplikasi. Kenapa hal ini di kehidupan sehari-hari itu bisa terjadi? Duplikasi itu terjadi ketika datanya itu dikompilasi, dikumpulkan dari beberapa source, beberapa sumber. Nah, ketika kita punya beberapa sumber, bisa jadi data yang kita punya itu mirip.

atau bahkan sama. Nah, di sinilah. Makanya kita harus menghapus yang sama. Terus yang kedua, duplikasi bisa juga terjadi ketika pengguna aplikasi itu hitting atau mengeklik submit button dua kali.

Jadi ketika mereka mungkin menggunakan aplikasi, kita bekerja sebagai data analis di suatu e-commerce, Terus pengguna e-commerce tadi ada yang ngeklik produk dua kali gitu ya. Nah itu tercatat sebagai duplikasi karena dia ngeklik dua kali. Atau bisa jadi kita mendapatkan request atau mendapatkan ya klik tadi ya sebanyak dua kali. Jadi kebanyakan sih karena kesalahan ya. Kesalahan karena salah ngeklik dua kali tadi atau mungkin dapat dari source yang banyak, ada banyak sumber.

Itu contohnya duplikasi. Kalau untuk data yang hilang atau data yang missing, biasanya kita perlu menghandle, kita perlu menghapus biasanya. Apakah bisa data yang hilang itu kita...

Isi gitu, bisa gak kita lakukan imputasi, namanya kalau dalam analytics, bisa. Tapi untuk proses imputasi itu lumayan kompleks. Mungkin lebih detailnya nanti ketika masuk ke kelas, di kelas Revoyu, akan lebih detail tuh dijelasin bagaimana meng-handle missing data. Meng-handle data yang hilang. Karena handling data yang hilang ini sangat...

Rumit ya bisa dibilang. Ada kasusnya kita bisa menghapus datanya. Ada kasusnya kita tidak boleh menghapus datanya. Jadi ada kriteria, ada kondisi yang bakal nanti dijelasin di kelas Revo U. Bagaimana sih caranya menghadapi ketika kasusnya seperti ini, ketika kasusnya seperti itu, itu ada penjelasannya detail.

Nah, secara garis besar, biasanya sih kita ngecek dulu di awal. Ada nggak nih yang kosong datanya? Bagaimana cara kita ngecek? Biasanya kita pakai fitur filter. Nanti akan kita pelajari di spreadsheet.

Lalu yang ketiga, kita juga perlu melakukan handling irrelevant data. Irrelevant data itu adalah data yang tidak relevan, tidak ada hubungannya dengan apa yang ingin kita analisis. Bisa aja data yang kita pakai itu mengandung kolom-kolom yang kita tidak mau analisis, tidak penting untuk kita ketahui, itu boleh kita delete. Nanti akan kita lihat di kasus dataset kita ketika hands-on. Nah, yang terakhir ini adalah yang terkompleks dari semuanya.

Yang paling utama dan sering sekali salah. penerapannya dalam kehidupan sehari-hari, yaitu handling menghadapi outliers. Apa itu outliers?

Outliers itu adalah data-data yang significantly different atau significantly, secara signifikan, berbeda. Berbeda dengan apa? Berbeda dengan teman-temannya nih. Jadi outlier itu gampangnya adalah nilai yang ekstrim, nilai yang entah.

dia kecil banget atau dia tinggi banget. Nah, outlier itu bagaimana cara kita menghadapinya itu sangat-sangat kaya, sangat-sangat banyak caranya. Tetapi dalam kasus sehari-hari, terutama di pengetahuan dasar, biasanya kita menggunakan rumus. Namanya rumus IQR atau mungkin rumus yang lebih yang keren itu menggunakan median kuartil 1 dan kuartil 3. Jadi intinya untuk mencari outlier, kita harus mencari nilai kuartil 1, kuartil 3, kemudian menggunakan rumus ini untuk melihat outlier yang paling besar dan outlier paling kecil. Kurang lebih seperti itu.

Nanti akan aku tunjukkan di dataset. Nah, setelah data kita bersih, Data kita sudah dilakukan pembersihan dari kolom yang nggak penting, baris yang nggak penting, outliers, duplikasi, missing data. Terus apa yang harus kita lakukan?

Yang harus kita lakukan adalah EDA. EDA itu adalah Exploratory Data Analysis. Jadi kuncinya di sini adalah explore. Atau kita...

menjelajah. Apa yang kita jelajahi? Yang kita jelajahi adalah datanya. Jadi kita lihat nih dari data yang kita punya, ada petang nggak sih? Ada pola nggak sih di dalam situ?

Ada anomali nggak? Ada hal aneh nggak? Apakah ada peningkatan atau penurunan?

Apakah ada hal yang nggak wajar? Nah itu adalah proses. EDA.

Biasanya EDA itu kita menggambarkan pakai grafik. Sebagai contoh, di sini ada suatu online store, suatu toko online yang menjual berbagai macam tipe dari alas kaki, dari sandal, sepatu, partyshoes, untuk hiking, untuk mendaki, untuk Kegiatan kerja formal. Nah dari semua barang-barang ini kita sebagai analis pengen melakukan analisis, pengen melakukan EDA untuk melihat ada bedanya nggak sih dari semua produk-produk ini dalam hal penjualan.

Apakah ada kaitannya dengan best seller? Apakah ada kaitannya dengan demografi pembeli? apakah ada kaitannya dengan berapa unit yang terjual dalam suatu waktu.

Nah, proses IDE, proses exploratory, ini adalah proses kreatif. Bisa banget, aku menganalisis tentang formal shoes, bagaimana penjualan formal shoes, bagaimana kaitannya dengan... Salary atau gaji pembeli, bagaimana kaitannya dengan diskon?

Bisa sekali. Beda ya dengan teman-teman yang lain. Mungkin teman-teman boleh melakukan analisis tentang sandal.

Bagaimana sih kaitannya sandal dengan bestseller? Bagaimana kaitannya sandal dengan demografi pembeli? Setiap orang itu pasti punya ide, pasti punya kreativiti ketika melakukan melakukan ide ketika melakukan analisis jadi pasti beda setiap orang sama halnya mungkin kalian diberi bahan dikasih challenge nih kita bikin masakan yang bahannya dari telur gitu mungkin analis satu itu dia membuat telur dadar mungkin analis dua dia menggunakan memasak bukan telur dadar tuh, tapi telur rebus. Jadi macam-macam.

Karena di sini data yang kita punya itu adalah bahan. Outputnya atau hasilnya itu sangat tergantung dengan analis. Dia tertarik dengan apa, pertanyaan apa yang ada di kepalanya, hipotesis apa yang muncul, itu adalah hal-hal yang membedakan satu analisis dengan analisis. Nah, bagaimana caranya kita melakukan IDE atau melakukan exploratory data analytics?

Seringnya kita lakukan dengan visualisasi. Visualisasi ini ada empat grup besar dari visualisasi. Ada comparison, distribution, composition, dan relationship. Comparison berarti kita mau membandingkan. Bagaimana penjualan dari sandal versus hiking shoes?

Nah, itu comparison. Distribution berarti melihat sebaran. Contoh, bagaimana distribusi dari penjualan sandal dalam satu tahun terakhir?

Komposisi, komposisi berarti bagaimana dalam satu unit itu terdiri atas beberapa grup. Jadi contoh, dalam satu hari berapa persen masing-masing sepatu-sepatu yang terjual. Berapa persen sandal, berapa persen formal shoes, dan lain-lain. Relationship berarti hubungan. Bagaimana hubungan antara penjualan.

sandal dengan temperatur bumi. Apakah semakin panas, makin banyak yang beli sandal? Karena panas, tidak ingin pakai sepatu, itu bisa saja terjadi.

Jadi ada macam-macam cara kita menggambarkan data sesuai dengan tujuan kita. Apa yang mau kita capai? Apa yang mau kita tunjukkan di situ? Nah, sekarang kita masuk ke garis besar analisis. Garis besarnya kita harus import, memasukkan data, kita bersihin, lalu kita enhance atau kita analyze, lalu kita visualisasi.

Nah, sekarang masuk ke simulation. Untuk simulation, aku langsung buka spreadsheet ya. Jadi, biar lebih enak.

Langsung tahu isinya gimana. Jadi ini adalah tampilan spreadsheet. Jangan lupa, teman-teman tinggal masukkan link-nya spreadsheet ya.

Tinggal buka Google Spreadsheets. Nanti klik aja, biasanya akan ada tampilan seperti ini. Boleh teman-teman ikut hands-on langsung.

Jadi sambil aku... Aku tunjukin ke teman-teman sekarang. Ini adalah tampilan spreadsheet, ada judul, ada menu-menu, ada file, edit, view, insert, format, data, tools, extension, help. Dan juga ada banyak sekali button-button atau fungsi-fungsi yang bisa kita lihat di sini. Lalu di sini menggambarkan, nih.

C5, C5 itu adalah nama sel yang sedang kita klik sekarang. Di sini yang aku sedang klik itu yang pakai kotak biru, itu ada di kolom C baris 5, berarti C5. Fx, Fx itu berarti fungsi atau function.

Function yang bisa kita lakukan terhadap data. Ini yang kita lihat lalu di bawah sini kita lihat ada dua button ya. Button yang pertama adalah add sheet jadi menambah sheetnya.

Ini adalah sheet satu kalau kita klik maka kita ke sheet dua. Jadi ada dua sheet atau kita klik all sheets. Nah di sini ada list atau daftar sheets yang kita punya.

Oke, sekarang kita masukkan datanya. Teman-teman sudah dapat spreadsheet-nya, dapat CSV-nya, dapat CSV-nya, boleh. Teman-teman klik file, lalu import. Klik file, import. Klik file, import.

Ketika kita klik, kita klik upload. Jadi kita upload dari laptop kita, kita tinggal pilih aja. Nah, di sini kita punya data Netflix yang sebesar 3,2 MB. Nah, setelah kita upload, dia akan muncul seperti ini. Import file.

Di sini ada nama file kita, datanetflixtitle.csv. Location-nya kita create new spreadsheet atau insert new sheets. Jadi kita bikin spreadsheet baru aja ya biar enak.

Separatornya atau pemisahnya itu kita bilang detect automatically. Jadi biar si spreadsheet-nya nih yang mendeteksi. Apa sih maksudnya separator? Jadi data kita itu kan data CSV ya teman-teman.

Data CSV itu biasanya data yang terkompres, kecil sekali saiznya, padahal nilainya, tabelnya itu sangat besar. Nah bagaimana cara dia membuat data yang besar jadi punya saiz yang kecil? Dengan cara di-press gitu, di-press.

nge-press-nya atau membuat dia jadi kecil, itu dengan cara nggak dipisah gitu, nggak terpisah dalam bentuk tabel. Jadi dia dipisah pakai separator namanya, pemisahnya. Biasanya separator atau pemisahnya itu berupa koma, berupa titik koma, atau pakai tanda petik, macem-macem. Nah, kalau kita tahu yang memisahkan apa, itu boleh dipilih.

Tapi karena aku nggak tahu nih, Pemisahnya apa? Bilang aja detek gitu. Lalu klik import.

Kita tunggu sambil dia melakukan import. Kemudian dia bilang file imported successfully. Berarti bisa kita open.

Nah ini dia data kita. Data Netflix. Title, step yang paling penting ketika kita sebagai data analis, teman-teman, itu adalah mengetahui data ini itu data apaan. Nah, caranya gimana?

Caranya kita scroll aja ke bawah. Kita lihat, wah ini kalau kita scroll ke bawah panjang sekali. Bisa sampai kalau kita lihat. Wah ini datanya sangat besar ya, ada 8.000 baris.

Ada 8.000 baris, sangat besar. Kita lihat ke samping. Kolomnya tidak terlalu banyak ya, sekitar 12. Jadi di bayangan kita tabelnya 8.000 baris, 12 kolom.

Oke, udah tahu bentukannya nih, kita tinggal melihat per kolomnya. Ngomongin apa sifatnya? Pertama kita tahu show ID. Berarti adalah ID atau identitas.

Dari suatu show. Ada juga type. Type itu berarti tipe.

Ada juga title. Title di sini berarti title dari si tontonan itu. Contoh di sini kita punya baris tiga ya. Di baris tiga ada title dari suatu TV show. Yang identitasnya bernama S2.

Judulnya Blood and Water, direktornya tidak ada, kosong. Country-nya dari South Africa, date edit-nya 24 September, rilis 2021, duration-nya 2 seasons, dengan kategori sebagai International TV. Nah, di sini aja kita udah...

Pasti kebayang ya, oh ternyata tabel yang sedang kita lihat sekarang itu adalah tabel yang menggambarkan data tontonan di Netflix. Ada tipenya apa, ada judulnya apa, castnya yang main siapa, asalnya dari mana, ratingnya apa, durationnya sepanjang apa, masuk ke grup apa. Jadi yang kita lagi lihat sekarang nih, teman-teman, itu adalah data tontonan yang ada di Netflix.

Ada dua tipe ya, di sini secara kasat mata kita lihat ada movie dan ada TV show. Oke, clear dari sini. Berarti kita sudah bisa melakukan import, sehingga next step-nya... adalah data cleaning. Data cleaning, tadi kita pelajari bahwa yang harus kita bersihkan itu adalah yang kosong pertama atau yang duplicate.

Nah, yang kita hapus pertama kali itu bisa yang duplicate. Gimana caranya? Kita klik di data.

Klik di data, ada suatu menu namanya data cleanup. Nah, di bagian data cleanup, kita bisa klik remove duplicates. Remove duplicates, kita menghapus duplicates, menghapus duplikasi. Ada 8000 row yang kita pilih dengan 12 kolom.

Data memiliki header. row, ini kita centang kenapa kita centang data has header row, karena dia adalah kita ngasih tau ke si spreadsheet bahwa kolom baris 1, di baris 1 itu adalah header atau judul kolom jadi ini kita klik ketika kita klik, dia otomatis tau nih bahwa kolom A adalah judul kolomnya show id Kolom B, tipe. Ini kita blok semuanya. Betul, kita analisis.

Kita klik remove duplicates. Kita klik remove duplicates. Nah, hasilnya no duplicate rows were found. Jadi, tidak ada row yang duplicates dari data kita.

Tidak ada yang duplicates dari data kita. Jadi semua data kita bersih. Nah, mungkin aku akan contohkan ke teman-teman bentukannya data yang duplikates itu kayak gimana sih.

Kita contoh ada nama, nilai, terus namanya. Ana nilainya 90, nilai matematika. Budi nilainya 10. Citra nilainya 100 Terus ada lagi namanya Ana, nilainya juga 90. Nah, ketika kalau seperti ini, berarti kita tahu bahwa yang duplikat itu adalah si Ana. Kenapa duplikat?

Karena isinya di setiap kolom itu sama persis. Di isi nama ada Ana nih, ada dua nih, persis. Tulisannya sama, A-N-A.

Nilainya juga sama persis 90. Nah ketika seperti ini kita bisa klik data, data clean up, remove duplicates. Kita klik header row, kita klik remove duplicates. Nah hasilnya muncul seperti ini. Satu duplicate row were found and removed. Jadi ada satu kolom, sorry satu baris.

yang ditemukan merupakan duplikasi dan baris tersebut kita hapus. Manual, eh sorry, otomatis. Tanpa harus manual kita hapusin.

Oke, di sini kita tinggal punya ANA 90 tapi tertulis satu kali. Mungkin ada yang bertanya nih, kenapa ya harus kita hapus duplicates? Bukannya nggak apa-apa ya, malah bagus ya. Semakin banyak data, semakin banyak info. Duplikasi itu bisa membuat analisisnya redundant atau berulang.

Padahal dengan satu nilai saja itu sebenarnya sudah cukup untuk memberikan informasi. Tidak perlu kita tulis dua kali. Makanya duplikasi itu kita hapus. Oke, duplikasi tidak ada aman berarti next stepnya kita perlu menghapus missing value.

Kalau secara langsung kita lihat, ini banyak ya missing value-nya. Ada yang ini, yang blood and water, dia tidak punya director. Kota factory juga tidak punya. Cash-nya Dick Johnson itu juga tidak ada. Country-nya Jailbirds New Orleans juga tidak ada.

Apakah artinya tidak punya data atau tidak ada director, tidak ada country-nya? Ya tentu saja enggak ya, karena enggak mungkin dong ada suatu TV show, tapi tidak ada director, ada suatu TV show yang dirilis, tapi enggak tahu dia asalnya dari mana, country-nya, enggak tahu dari negara apa, kan enggak mungkin ya. Jadi kenapa bisa hilang datanya? Nah, bisa jadi datanya hilang karena memang enggak ditulis.

Enggak ditulis sama si... Netflix-nya mungkin ketika dalam proses download dia tidak termasuk atau bagaimana, yang jelas datanya itu tidak masuk di tabel kita. Sehingga yang harus kita lakukan adalah kita cek mana yang kosong, mana yang missing. Kita blok semuanya, biasanya kalau pakai Mac kita pakai comment.

dan A atau pakai Windows bisa pakai ctrl A biar keblok terus kita klik ini filter jadi klik di sini ada more pilih yang bentukannya seperti ini seperti saringan seperti filter ini kita klik create a filter nah setelah kita create a filter kita bisa cek per kolom, kita cek satu-satu ada blanks gak ya nah untuk kolom show id tidak ada blanks tidak ada kata-kata blanks, jadi aman tipe juga aman ya, tidak ada blanks dan disini kita lihat tipe itu ada dua doang ada tipe yang movie dan tv show title kita lihat disini tidak ada yang kosong Jadi memang tidak ada judul yang hilang, tapi di director kita bisa menemukan blanks atau yang kosong. Nah, mau ngecek nih kita mana aja yang kosong, kita klik clear. Jadi biar menghilangkan centang-centangnya tadi, lalu kita centang yang blanks.

Kita klik clear. Kita centang yang blanks. Lalu kita klik OK. Nah, di sini ditampilkan mana aja director-director yang kosong.

Di sini ada Blood and Water, Jailbirds, Kota Factory, Vendetta, dan banyak sekali yang kosong. Oke, kita cukup tahu di sini. Kita hapus sekarang, kita tinggalin aja dulu. Jadi kita balikin ke kondisi semula dengan cara tadi klik, terus kita klik select all.

Lalu klik OK. Nah, untuk cache-nya, cache-nya ini ada banyak juga yang kosong. Kita klik clear, klik blank.

Nah, di sini kita scroll, ada banyak sekali cache yang kosong. Oke, kita cukup tahu juga, kita balikin ke kondisi awal, kita selek semuanya. Untuk negara kita lihat juga nih, ada yang kosong, kita oke cukup tahu aja, kita tidak perlu ngecek satu per satu. Jadi berdasarkan itu kita bisa lihat bahwa ada beberapa kolom yang blank.

Ada kolom director, ini aku tandain merah. Karena ada yang kosong. Cash juga kosong. Country pun kosong. Date added pun kosong.

Tahun rilis aman. Rating tidak aman. Ada yang kosong juga.

Kita kasih merah-merah dulu yang tidak aman. Duration juga sama. Listed in aman.

Tidak ada yang... Missing, description, nah description aman semuanya lengkap. Jadi tidak perlu kita hapus. Di sini kita melihat, kita ketahui yang kosong adalah yang kolom-kolom dengan judul merah.

Nah, lalu apa nih yang harus kita lakukan kalau kita tahu ada missing data? Baiknya sih, baiknya kita hapus. Apa yang kita hapus? Tergantung.

Bisa kita hapus kolomnya, bisa juga kita hapus barisnya. Tapi kasusnya sekarang kalau kita hapus barisnya ya teman-teman, ini pasti akan banyak sekali data yang terhapus sehingga data yang tertinggal, data yang bersih itu jadi sangat kecil. Jadi infonya berkurang.

Nah, kalau kita hapus kolom, yang perlu kita cek adalah penting nggak ini kolom untuk analisis. Kalau nggak penting, yaudah buang aja satu kolom. Tapi kalau penting, maka kita harus keep itu.

Dan di sini kita lihat bahwa director sepertinya tidak terlalu penting ya. Karena dalam analisis mungkin ada beberapa director yang tidak tertulis. Jadi karena dia tidak penting atau irrelevant, jadi lanjut ke bahasan selanjutnya yaitu irrelevant data, kita bisa hapus director. Kita klik satu kolom, kita klik kanan, muncul beberapa menu pilih delete kolom. Jadi klik kolomnya, di klik kanan.

Pilih delete kolom. Dah, kehapus. Cache.

Cache juga nggak penting. Kenapa nggak penting? Karena kita nggak bisa melihat bagaimana suatu cache itu terlihat per orangnya. Karena di sini campur.

Sebagai contoh, blood and water. Ada amakamata sampai selomake. Jadi, sangat banyak tidak terlihat.

terpisah gitu ya jadi akan susah menganalisisnya ini bisa kita delete juga delete kolom country country ini kan enggak enggak ada yang enggak ada gitu ya ada yang hilang tapi ini country itu bisa memberikan kita info sebenarnya karena kita bisa tahu ada berapa TV show atau movie yang keluar yang kita dirilis gitu ya berdasarkan setiap negara Berapa yang dirilis United States, berapa yang dirilis oleh India, itu bisa kita lihat. Jadi untuk kasus ini kita keep aja si country. Date added tidak penting, dia tidak memberikan informasi.

Rating, ya itu penting juga meskipun ada yang blank. Duration, tidak terlalu informatif. Kenapa?

Karena antara movie dan TV show dia beda satuannya. Ada yang satuannya dalam bentuk menit, ada yang dalam bentuk season, nggak pas formatnya, kita delete. Sehingga dari semua data yang kita punya, kita punya sekitar sisa berapa kolom nih? Ada 8 kolom, yang awalnya kita punya 12 menjadi 8. Sudah lebih bersih lagi meskipun country ada yang kosong.

Sekarang kita cek country ini yang blanks ada berapa ya. Nah, di sini lumayan banyak ya. Ada sekitar 831. Kalau kita hapus, 800-nya itu masih sisa 8 ribuan. Masih sangat memberikan info yang banyak.

Sehingga apa yang bisa kita lakukan? Kita bisa men-delete, kita bisa menghapus. Caranya gimana?

Kita klik 4 sampai kita klik yang bawah, jadi kita blok gitu. Kita biasanya pencet shift sambil kita klik atas dan bawah. Setelah kita blok, kita pilih klik kanan, delete, selected.

rows. Nah, ini dia masih loading. Dia menghapus row yang sudah kita seleksi.

Setelah itu, setelah bersih, kita hapus filternya. Nah, ini tersisa yang sudah bersih. Jadi, country-nya sudah tidak ada yang blank.

Benar tidak? Kita cek dulu, klik filter di country, kita cek sudah tidak ada blanks. Bagaimana dengan rating?

Jadi ini kita hapus dulu tandanya. Rating, apakah ada yang blanks? Masih ada. Oke, kita hapus dulu yang blanks di rating. Oh, ternyata cuma 3. Oke, kita bisa hapus nih karena tidak menghilangkan banyak informasi.

Kita delete selected rows. Oke, sudah bersih ya. Harusnya kita klik rating, tidak ada yang blanks.

Kita tinggal remove filter. Oke, jadi ini adalah data kita yang sudah bersih. Tidak ada missing data.

Oke, setelah aman tidak ada missing data, biasanya kita checking outlier. Nah, cuma karena dalam kasus ini kita tidak punya data yang sifatnya outlier, sifatnya berupa angka, jadi kita tidak bisa mengecek itu. Oke. Next stepnya setelah kita tahu kita sudah punya data yang bersih, kita bisa melakukan analisis. Oh bisa-bisa nih, kita bisa menghapus outlier pakai year ya di sini.

Contoh, kita ingin menganalisis suatu film-film yang ada di Netflix seperti yang kita punya sekarang, tapi pengen yang terletak di tahun yang tidak outlier, tahun yang tidak lama banget atau yang tidak baru banget. Bagaimana cara ngeceknya? Untuk menghapus outlier, saya buat sheets baru di sini biar mudah. Untuk menghapus outliers itu penting sekali untuk kita menggunakan hitungan kuartil 1, kuartil 2, eh sorry kuartil 3. Kemudian IQR atau interquartile range namanya. Kemudian kita bisa menghitung lower outlier dan upper outlier.

Nah, kita pelan-pelan ya. Dalam kasus ini kita pengen menghapus berdasarkan tahun atau release year. Di sini kita lihat release year. Kita blot. Kuartil 1 itu berarti ukuran data pada posisi keurutan 25%.

Jadi caranya gimana? Caranya kita bisa bilang sama dengan kuartil. Sama dengan kuartil. Kita kurung buka.

Kita pilih ya, release year-nya dari ini sampai ke bawah. Jadi kita blok semuanya, lalu kita bilang 1. Jadi maksudnya adalah kuartil 1. Kalau kuartil 3 gimana caranya? Kuartil 3 sama, tapi tinggal kita menghapus 1 menjadi 3. Biar kita nggak nulis ulang, kita block aja nih functionnya.

Kita klik copy, ctrl C, lalu kita copy paste, ctrl V. Kita pilih satunya dihapus menjadi angka 3. Nah, didapatkan bahwa kuartil 1 2013, kuartil 3 2019. Nah setelah dapat ukuran ini, angka ini kita harus mencari IQR. Apa itu IQR? IQR itu adalah gap atau perbedaan antara kuartil 3 dikurangin kuartil 1. Angkanya adalah 6. Bagaimana caranya mencari lower outlier atau outlier bawah, outlier yang nilainya kecil sekali? Lower outlier adalah outlier yang nilainya kecil sekali. Kalau yang upper berarti yang nilainya besar sekali.

Nah, lower outlier berarti kita cari caranya dengan cara... Kuartil yang 1 dikurangin dengan 1,5 dikali dengan IQR. Oke, lalu kita enter.

Kalau upper gimana? Kalau upper berarti kuartil 3 ditambah 1,5 dikalikan. IQR.

Nah, sehingga kita punya batas nih teman-teman. Batas nilai ekstrim yang rilis tahunnya itu kurang dari 2004, itu berarti datanya udah updated, udah expired, udah lama banget. Kita tidak perlu masukin. Yang terbaru banget setelah 2028, yang mana nggak mungkin ya. sekarang aja masih 2024 itu juga outlier makanya kita bisa menghapus tuh outliernya Bagaimana caranya tadi kita udah punya ukuran ya outliernya itu either di bawah 2004 atau di atas 2028 Nah ini kita lihat banyak nih yang 94 dan lain-lain.

Ini kita tinggal klik clear. Kita pilih yang di antara 2004. Eh sorry 2004. Sampai kita pilih yang 2000 sekarang berarti. 2024. Bisa nggak kita pakai range aja?

Bisa. Klik oke. Ini data kita yang sudah bersih.

Sudah aman, karena sudah aman berarti kita bisa melakukan analisis. Nah, biar lebih enak kita bisa mengopi data kita yang sudah bersih ini ke sheet yang baru. Kita namai clean data. Kita copy.

Nah, ini adalah data yang sudah bersih. Oke, karena sudah bersih kita bisa explore sekarang. Sudah bersih dari missing data.

data outliers ya duplikat jadi kita bisa melakukan ide nah dari yang kita punya sekarang nih datanya ya kita punya data tentang judul tipe-tipe tontonannya bisa movie bisa TV show ada negara ini ada banyak banget deh kepikiran ide yang bisa kita analisis sepertinya oke deh kalau kita analisis kita bikin sheet baru kita namai IDE tadi kan kita punya banyak ya sepertinya asik kalau kita bikin pivot table salah satunya bisa pakai pivot table, tapi kayaknya lebih cocok pakai pakai grafik deh biar pakai visualisasi data ya jadi kita blog semuanya kita insert kita bikin car nah disini biar lebih enak kita lihatnya kan sulit ya nggak papa deh kita taruh sini dulu kita pengen bikin berapa persentase dari Tontonan, berapa banyak yang movie, berapa banyak yang TV show. Nah, berarti kita bisa pakai pie chart. Nah, pie chart kita cari yang kita pakai type.

Kita pakai type. Oke, kita pakai show ID. Kita pilih yang ini. Wah, kenapa nih?

Apa yang error? Ternyata katanya invalid type. Nah, kalau langsung chart, susah ya teman-teman. Susah untuk membuatnya jadi enak gitu.

Makanya lebih enak kita bisa pakai pivot sebenarnya. Tapi pivot itu bukan idea yang berupa visual biasanya, jadi berupa angka doang. Tapi memudahkan. Jadi kita klik insert, kita bilang pivot table, kita pakai yang existing sheet, kita pakai.

sheet yang ini. Oke, kita create. Nah, ini dia sudah memberikan pivot data yang sudah dikumpulkan.

Kita pengen melihat tipe, jadi kita klik tipe di bagian rows atau baris. Nah, barisnya berubah menjadi dua jenis tipe. Ada movie, ada TV show. Kan tadi kita pengen menghitung jumlah ya, menghitung ada berapa yang movie, ada berapa yang TV show. Apa yang harus kita hitung?

Yang harus kita hitung adalah identitasnya. Ada show ID, count A, show ID. Di sini terlihat bahwa movie-nya 5.000, TV show-nya 2.000.

Tapi masih susah dalam bentuk jumlah, gimana kalau dalam bentuk percentage? Kita bisa show dalam bentuk percentage of column. Nah, di sini terlihat bahwa ada 69% film dan 30% TV show di dalam data kita.

Oke, berarti kebayang ya, berarti ini adalah persentase movie dan TV show. Bisa kita gambarkan dalam bentuk... Jadi kita blok aja tadi kotaknya, terus kita pilih chart.

Dia secara otomatis mengetahui bahwa ini adalah pie chart, karena dalam bentuk percentage. Nah, setelah punya chart kan kelihatan ya di sini bahwa secara visual lebih banyak yang movie. Kita bisa ganti nih namanya menjadi percent.

Page of types. Warnanya terlalu mencolok nih, biru dan merah. Boleh diganti nggak? Boleh.

Jadi bisa kita klik merahnya. Kita klik color. Kita pilih mungkin yang soft, ungu gitu.

Yang movie terlalu cerah kita ganti mungkin jadi kuning. Nah, di sini kelihatan percentage-nya. Lebih banyak yang kuning. Nah, bisa apa lagi ya? Kita explore, kita balik ke datanya.

Kita lihat, selain tipe, kita bisa nggak ya lihat country. Country oke nih. Oke, kita bisa cek pakai country.

Kita tinggal insert lagi, pivot lagi. Sorry, kita blok ya tadi di sini. Kita insert, kita pivot, kita klik existing.

Kita klik mau ditaruh di sini, di A17. Lalu kita klik yang kosong, di A17. Oke, klik create. Nah, di sini ada yang harus kita isi.

Tadi country di rows-nya, di barisnya. Wow, ini ada banyak banget country-nya. Oke, sepertinya di country ini masih ada yang kotor. Kenapa kotor?

Karena banyak yang join-an ternyata waktu kita cek. Jadi ada seperti Argentina, dia tidak hanya Argentina, tapi ada yang campur dengan Brazil, France, Poland, ada yang dengan Chile, ada yang dengan France lagi, macam-macam. Oke, biar lebih rapi kayaknya kita bisa hapus aja ya yang pakai koma-koma, kita nggak usah tunjukin.

Caranya gimana? Caranya nanti kita cek ya. Nah.

Terus selanjutnya kita bisa klik values, kita bilang show ID. Nah di sini show ID terlihat bahwa Argentina ada 53, Australia ada 82. Yang campur-campur itu kecil sekali, jadi mungkin bisa kita exclude aja, kita keluarin aja. Kita klik ke...

filters kita filter berdasarkan apa berdasarkan countrynya kita tidak mau yang ada komanya jadi kita select all nah ini lumayan manual ya kan capek ya karena ini ada banyak banget Bagaimana Solusinya ketika pengen ngefilter, kita bisa ngebersihin datanya lagi. Jadi kembali ke proses data cleaning. Apakah wajar seperti itu? Lagi analisis, eh harus di-cleaning lagi. Wajar, dan nggak apa-apa kita cleaning lagi.

Tapi untuk kasus ini mungkin kita cleaning-nya yang atas aja ya, yang French and South Korea. Karena kalau kita hapusin semuanya mungkin butuh waktu lama. Nah, nanti di kelas Revoyu juga bakal ada tipsnya dan triknya tuh gimana caranya menghapus data yang kecil kayak gini, tapi annoying gitu, mengganggu sekali.

Dan susah kalau kita hapus manual, karena banyak. Jadi kita akan ada otomatisnya gitu, otomasinya seperti apa. Lihat di sini Argentina 5-3 dan seterusnya ada banyak sekali.

Ini kalau dibikin chart pasti jelek, pasti nggak bagus. Kenapa? Karena masih banyak yang kotor. Jadi selanjutnya yang harus dilakukan adalah membersihkan ulang. Jadi kita tidak perlu menggambarkan visualnya, kita cukup pakai percentage of types.

Balik lagi ke sini, apa yang bisa kita analisis sepertinya di rating atau release year. Kita pilih salah satu, kita pilih rating saja. Jadi tadi kita klik.

Insert, pivot, existing, pilih yang ini. Kita taruh di sebelah sini, create. Nah, kita mau berdasarkan rating.

Nah, tipe-tipe rating nggak terlalu banyak. Terus kita value-nya, kita lihat jumlahnya ada berapa. Nah ini ada yang unik lagi nih. Kalau kita lihat ya teman-teman di bagian rating sekarang itu ada yang aneh. Apa yang aneh?

Nih tiga ini yang aneh. Kenapa dia aneh? Karena gini ketika kita punya rating, rating itu bukan merupakan durasi.

Rating itu adalah semacam... Stasifikasi dari filmnya. Oh mungkin kalau PG berarti artinya parental guide. 6-6 menit, 7-4 menit, 8-4 menit itu bukannya durasi ya.

Kenapa masuk ke rating? Nah ketemu lagi. Ini berarti datanya apa? Datanya masih kotor. Artinya untuk baris yang mengandung rating 6-6 menit, 7-4 menit, 8-4 menit itu harus kita hapus.

Kita balik ke clean data, kita cari mana dia yang kosong. Eh sorry, yang 6 menit ini, 7, 4, dan 8, 4, kita klik OK. Nah, ketemu.

Ini kita blok semuanya, kita delete. Oke, aman. Harusnya di sini juga ter-reflect.

Ternyata belum, karena dia tidak otomatis merefresh. Jadi karena dia tidak otomatis merefresh, kita bisa bikin ulang di sini. Ya begitu ya teman-teman, jadi cleaning data itu adalah proses yang maju mundur, karena kadang ketika sudah kita rasa bersih, eh ternyata ada lagi nih yang belum. Jadi itu adalah yang wajar sekali. Tapi nanti di kelas pasti kita akan berikan tips ya bagaimana biar efisien.

Rating, nah ratingnya udah clean. Oh iya ini udah clean juga ya, sorry. Udah gak ada min-minnya lagi. Ini udah gak perlu. Oke, ini sudah bersih.

Jadi kita bisa tinggal bikin suatu chart. Kita block, kita insert. chart kalau pakai pie enggak pas nih Kenapa enggak pas karena banyak banget kategorinya kita bisa pakai baris aja ya grafik batang grafik kolom seperti ini atau kalau teman-teman lebih suka yang mendatar boleh juga pakai bar seperti ini tuh boleh jadi terlihat beberapa Banyak, mana yang paling tinggi, mana yang paling banyak ratingnya. Di sini TVMA yang banyak.

Lalu yang kedua adalah TV14. Jadi begitu ya untuk visualisasinya. Saya rasa ini bisa memberikan kita informasi.

Apa informasinya? Berarti informasinya di chart pertama, based on the chart. Berdasarkan chartnya, movie is dominating the TV shows.

Is dominating over the TV shows. Berarti kita bisa bilang bahwa movie lebih banyak dari TV show. Movie 69%, TV show 30%.

Lalu dari sini kita bisa kasih interpretasi, kita bisa kasih arti. Artinya... TVMA is the highest rating category out of all categories.

Jadi dari semua yang ada TVMA yang paling tinggi. Yang paling banyak muncul di data kita. Jadi kurang lebih seperti itu untuk visualisasinya.

Dari awal kita punya data kita bersihkan. kita udah bersih kita ide setelah kita ide kita cari infonya gitu jadi sudah terlihat ya infonya disini kalau gitu mungkin bisa over to you Kak Cita Oke thank you Kak Regita udah ngejelasin tadi ya pengenalan spreadsheet itu sendiri sampai tadi dijelasin cara penggunaannya teman-teman di Kepingin juga kan terjun ke bidang data analytics, jadi udah tahu ya cara pengoperasian toolsnya seperti apa. Nah, Kak Regita, ini udah banyak pertanyaan sebenarnya, tapi tahan dulu ya teman-teman.

Kita akan masuk dulu ke agenda selanjutnya. Jadi, Kak Regita jangan kemana-mana, nanti kita akan ketemu lagi untuk bacain pertanyaan ya, Kak. Thank you, Kak.

Oke, gimana nih teman-teman? Wah, tadi udah dengerin banyak banget ya penjelasan tentang salah satu tools yang... Memang kalau teman-teman nanti kerja di bidang data analytics ini pastinya digunakan juga di day-to-day basis. Jadi tadi udah latihan dan kenalan sedikit-sedikit mempelajari spreadsheet.

Nah sekarang aku pengen tanya dong teman-teman di sini, tau gak sih kalau misalnya kepengen berkarir di bidang data analytics, ternyata gak cuma teman-teman itu perlu pelajarin teori-teorinya aja, tapi juga harus bisa menguasai berbagai macam tools lainnya di bidang data analytics. Coba dong ketik satu kalau teman-teman udah tau dan mungkin boleh. Share juga kira-kira tools apa lagi nih yang menurut kalian perlu dikuasain juga kalau teman-teman kepingin berkarir di bidang data analytics. Atau ketik dua kalau teman-teman baru tahu bahkan baru kenalan pertama kali sama spreadsheet juga gitu ya.

Jadi baru tahu banget nih boleh ketik dua. Aku pengen lihat lebih banyak yang ketik satu atau yang ketik dua. Wah ini banyak ya jawaban-jawabannya. Thank you ya teman-teman untuk responsenya.

Buat yang masih ketik dua, nggak apa-apa. Teman-teman bisa kenalan pelan-pelan. Karena hari ini kita juga belajar salah satu tools yaitu spreadsheet.

Dengan mungkin teman-teman baru pertama kali tahu tadi terms-terms atau mungkin istilah-istilahnya. Terus juga tadi cara mengolah data seperti apa. Sampai bikin chart juga.

Nah, tapi nggak bosan-bosan aku mau ngingetin kalau teman-teman nanti... tertarik berkarir di bidang data analitik secara profesional, sebenarnya ada berbagai macam tools lainnya yang bisa kalian pelajarin dan mungkin wajib dikuasai juga selain spreadsheet yang hari ini kita pelajarin bareng-bareng, teman-teman juga perlu pelajarin yang namanya SQL, lalu ada Python, ada Tableau gitu ya. Bahkan teman-teman juga perlu mempelajari tentang AI ataupun data analitik with AI, di mana memang kalau sekarang AI sudah digunakan juga sehari-hari, jadi teman-teman juga harus bisa.

Nah, kalau misalnya teman-teman tertarik untuk mendalami, pastinya bisa juga bergabung ke Fullstack Data Analytics Program karena akan mempelajari berbagai macam tools yang ada di layar ini. Nggak cuma toolsnya aja, tapi dari mulai pemahaman bisnis problemnya juga akan diasah dan dipelajari. Terus juga gimana cara teman-teman nantinya mengkomunikasikan insight-nya gitu ya, cara teman-teman data storytelling, data communication-nya, sampai nanti teman-teman juga akan dibantu untuk persiapan karirnya. Kalau teman-teman nanti gabung ke full stack tenang aja Materi-materinya bisa diakses secara unlimited ya Jadi tidak seperti di mini course mungkin yang terbatas Kalau di full stack nanti materinya bisa diakses unlimited Bahkan setelah lulus masih bisa belajar-belajar lagi materinya Lalu akan ada dedicated study group Teman-teman bisa dibagi-bagi lagi ke dalam kelompok kecil Berisi 10-13 murid setiap kelompoknya Dan nanti setiap kelompok punya satu orang tim lead masing-masing Dedicated tim lead untuk setiap 10 murid Jadi Bisa lebih enak nih kalau teman-teman mau tanya-tanya sama materi yang udah pernah dipelajarin atau mungkin mau tanya-tanya tugasnya dan lain sebagainya. Bisa diskusi dan juga konsultasi sama tim lead masing-masing nih terkait materi-materinya.

Lalu selanjutnya kelasnya akan dilakukan secara live menggunakan platform dua arah supaya teman-teman nanti bisa langsung raise hand kalau ada pertanyaan bisa langsung ngobrol sama instrukturnya juga gitu. Dan yang terakhir bakalan ada supaya... support dari para mentor selain nanti mentor-mentor di bidang data analytics nanti teman-teman juga ketemu mentor di bidang rekrutmen supaya bisa semakin membantu kalian nih yang kepingin memperdalam skill sampai dengan nanti memulai karir di bidang data analytics juga Nah mengenai persiapan karir apa aja sih yang akan kalian dapatkan ya setelah nantinya kalian dipersiapkan dengan skill yang mumpuni, setelah teman-teman bisa jadi talent yang qualified juga, maka nanti teman-teman akan dapat fasilitas selanjutnya nih. Yang pertama ada job seeking class, disini teman-teman akan dibantu dari awal didampingin ya setiap langkah proses pencarian kerjanya dari awal banget pembuatan CV-nya teman-teman, profile building. Terus gimana cara ngebangun portfolio sampai nanti ada tips networking juga.

Serta ada tips negosiasi gaji dari karir mentor kalian ya. Lalu yang kedua ada mockup interview. Di sini teman-teman akan dapat latihan interview gak cuma sama karir mentor kalian aja. Tapi juga bisa latihan mockup interview sama real HR.

Bahkan sama real hiring manager ataupun real user. Karena setiap interview ya dari interview HR sampai interview user itu pasti akan beda nih yang dipersiapkan. bukan yang ditanyain dan lain-lain.

So, teman-teman akan dapat mock-up interview bareng sama mereka dan akan dapat juga personalized feedback sesuai dengan visi-misi karir kalian. Berarti feedbacknya apa nih yang bisa disesuaikan dengan background masing-masing juga. Nah, harapannya bisa meningkatkan peluang kalian untuk bisa di-hire dan mendapatkan pekerjaan impian ya, teman-teman. Yang selanjutnya ada virtual internship.

Di sini teman-teman akan dapat pembelajaran langsung dengan cara ngerjain case-case yang terjadi. di industri yang sesungguhnya dari perwakilan-perwakilan perusahaan terkemuka juga yang nanti Casey akan kalian kerjakan. Jadi di sini teman-teman akan dapat kesempatan untuk mempresentasikan hasil analisis kalian kepada perwakilan perusahaan yang Casey nanti kalian kerjakan.

Kira-kira apa sih insight yang kalian dapat, terus juga recommendation dan lain sebagainya. Dan nanti teman-teman akan dapat feedback yang sesuai dengan industri yang sesungguhnya juga. Nah di sini teman-teman bisa mulai juga memperluas networking dengan para professionals. bahkan sebelum kalian lulus dari programnya. Yang gak kalah penting selama menjalani proses-proses ini, teman-teman gak akan dilepas gitu aja ya.

Kalian akan disupervisi dan didampingin sama para expert. Yang tadi expertnya gak cuma di bidang data analytics aja, tapi juga expert-expert di bidang recruitment, supaya nanti teman-teman bisa semakin maksimal nih hasil yang udah dikerjakan. Nah, kalau kalian penasaran kira-kira ada berapa banyak alumni-alumni dari Revoyu Full Stack Data Analytics Program, Terus juga kepingin tahu ya mereka udah kerja di mana aja.

Atau mungkin teman-teman kepingin coba diskusi atau tanya-tanya atau mungkin networking dulu sama para alumni. Nanti boleh dicek aja link yang mungkin boleh dibantu share sama kakak support squad ya. Di situ ada link berisi alumni-alumni nyariin for you full stack dan akan ada link in mereka juga. Mungkin kalau teman-teman kepingin mulai berkoneksi tipis-tipis gitu ya memperluas jejaring dari sekarang. Bisa diskusi juga mengenai mungkin proses belajar yang mereka.

ke perjalanan karir mereka, siapa tahu nanti bisa jadi inspirasi juga ya buat teman-teman. So, nanti boleh aja dicek setelah kelasnya berakhir, kalau pengen kepoin alumni-alumni, review full-stack data analytics program. Nah, kalau pengen ikutin juga jejak dari para alumni, tenang aja ya teman-teman, karena untuk di bidang data analytics sendiri, itu bakalan luas banget peluang pekerjaannya buat kalian, karena hampir, mungkin hampir setiap industri pekerjaan itu pasti memerlukan analisis data ya.

dari mulai konvensional company, corporate, lalu startup, tech industry, sampai dengan agency, dari mulai perusahaan-perusahaan seperti banking, telekomunikasi, bahkan F&B gitu ya, dan lain-lain, wah ini bakalan banyak banget nih peluang pekerjaannya untuk kalian. Kalian bisa ikutin jejak para alumni nantinya, apalagi kalau kalian gabung ke Voltec ya, karena nanti akan dipetakan juga strategi pencarian kerja yang sesuai. Dengan karir goal kalian masing-masing. Nah, mungkin boleh juga nih aku pengen nanya kira-kira industri impiannya teman-teman ataupun company goal saya teman-teman ini apa?

Nanti boleh di-share juga di kolom komentar ya. Oke, sekarang aku mau jelasin perbedaan antara Fullstack dan juga program lainnya. Nah, kalau misalnya teman-teman gabung ke Revoyu dan juga di online courses lainnya, apa aja sih perbedaannya?

Kalau teman-teman gabung ke Revoyu Fullstack, pastinya akan dapat durasi belajar yang lebih panjang. sampai dengan 6 bulan dengan berbagai macam opsi pembayaran yang fleksibel juga ya disesuaikan dengan preferensi kalian. Lalu nanti teman-teman akan ada yang namanya job guarantee. Nah, di sini nanti ada pengembalian dana ketika teman-teman dalam kurun waktu tertentu misalnya nggak berhasil dapat pekerjaan, nanti ada yang namanya job guarantee juga.

Lalu untuk metode pembelajarannya, nah ini bakalan dapat... Banyak banget kelas-kelas secara live, dua arah dan interaktif bersama dengan para expert, industry leaders yang akan menjadi instructor kalian di kelas. Serta akan ada tugas-tugas yang bisa kalian kerjakan juga.

Nah, spill sedikit nih teman-teman. Akan ada tiga level tugas. Yang pertama level foundation. Yang kedua level intermediate.

Dan yang ketiga ada level advance. Biasanya untuk tugas-tugas advance yang ada di Revoyu Fullstack, ini bakalan 11-12 dengan technical case study interview yang ada di perusahaan-perusahaan loh teman-teman. Jadi harapannya kalau nanti kalian gabung ke Fullstack, ngerjain tugas-tugas advance-nya, kalian bisa makin terbiasa ketika dapetin technical interview ataupun technical case study dari nantinya perusahaan impian kalian ya ke depannya.

Nah, so teman-teman gak usah khawatir ya, karena semua fasilitas ini bisa kalian dapatkan, dan juga nanti ada karir mentoring, terus juga bakal ada dedicated study group, yang paling seru dan yang paling menarik, teman-teman nanti kalau gabung ke full stack setelah lulus, gak akan dilepas gitu aja, karena Revoyu akan menjadi lifelong learning and career partner buat kalian. Kalian bisa tetap ikutan kegiatan-kegiatan eksklusif. di Revoyu Community untuk para alumninya, untuk bisa tetap ikutan belajar, ikutan diskusi, supaya nanti teman-teman nggak ketinggalan zaman, mungkin ada tren-tren baru di kemudian hari, atau mungkin ada tools-tools baru yang belum pernah kalian pelajari, kalian bisa diskusi bareng sama para alumni-alumni lainnya, bisa ketemu sama para expert juga, dan di sini teman-teman bisa networking juga ke ribuan alumni Revoyu lainnya.

Semua ini bisa kalian ikutin di program Fullstack yang 6 bulan, dengan tuition fee sebesar 20 juta rupiah ya teman-teman. Nah tapi karena sekarang kuotanya sangat terbatas nih tinggal sedikit lagi Aku saranin bisa cepet-cepetan daftar dulu Dari sekarang klik link pendaftaran yang ada di pin live chat youtube Karena daftarnya masih gratis teman-teman tenang aja Nanti setelah daftar teman-teman bisa diarahkan untuk ikutan dulu tes kecocokannya secara gratis Lumayan ya bisa cek kecocokan berkarir kalian Apakah data analytics ini adalah karir yang cocok untuk kalian Apakah kalian bisa masuk ke program fullstacknya Dan nanti setelah itu baru bisa diskusi lagi Kalau misalnya memang teman-teman Udah keterima nih, udah cocok dengan program di Fullstack Data Analytics ini. Nah, kalau di online courses lainnya, mungkin teman-teman bisa lihat tabel yang sebelah kanan, tuition fee yang dibayarkan bisa sampai dengan 25 juta rupiah, teman-teman, dengan fasilitas yang belum selengkap yang ada di Revoyu ya.

Jadi, teman-teman nanti bisa dicek aja. Mungkin bisa mampir juga ke website Revoyu kalau ingin tahu lebih detail. Oke, kita akan langsung masuk ke sesi tanya-jawab. Ini mungkin sudah banyak pertanyaan yang masuk juga. Dan kita bisa panggilkan lagi Kak Regita untuk bergabung lagi bersama kita Welcome back Kak Regita Thank you Oke kita langsung masuk nih Kak Ada beberapa pertanyaan Semoga bisa dijawab semua ya Tapi mohon maaf nih teman-teman Kalau gak semuanya bisa kita bacain ya Kita pilih dari yang paling banyak ditanyain aja Nah first question Kak dari Enrico Damas Bagaimana caranya untuk memilih data yang tepat sehingga mendapatkan informasi yang lebih valid dan juga berguna?

Mungkin silakan Kak. Oke, wah ini pertanyaan bagus sekali ya. Ini pertanyaan yang mendasar dan kalau kita nggak benar ya melakukannya itu bisa salah sampai ke belakang. Jadi ketika kita punya tim biasanya dalam satu tim itu ada banyak sekali ide.

Sebagai contoh, kita pengen meningkatkan penjualan produk kita. Ada macam-macam caranya, ada bisa dari cara kita ngasih diskon, bisa dengan cara kita ningkatin promosi, bisa dengan cara kita bikin online promotion, atau mungkin ngasih gratisan, dan banyak sekali caranya. Nah, ketika kita pengen tahu nih menganalisis mana yang paling efektif, kan kita butuh banyak data.

Ada data untuk diskon, data dari sisi gratisan, data dari sisi online promotion, offline promotion, itu kita kumpulin. Nah, baru kita compare. Jadi, jawabannya adalah bagaimana kita menemukan data yang paling tepat biar infonya valid dan berguna, kita harus tahu dulu masalah apa yang mau kita selesaikan.

Kita harus tahu. permasalahan apa yang mau kita jawab. Nah, dari situ kita tahu data apa yang kita butuhkan. Gitu. Oke.

Semoga terjawab ya, Enrico. Dan mungkin teman-teman yang lain juga nih. Jadi, tadi udah dapet insight-nya ya dari Kak Regita.

Nah, next question Kak dari Elvin. Kalau secara olah data dan analisis sudah clear, gimana nih Kak caranya come up dengan business solution yang tepat? Nah, ini mungkin juga... menjadi kebingungan ya buat teman-teman, silahkan Kak oke, ini juga pertanyaan yang bagus karena pada kehidupan sehari-hari memang yang terpenting adalah bagaimana bisnis solution ini kita realisasikan gitu ya bagaimana caranya kita menemukan bisnis solution yang tepat yang pertama pastinya adalah diskusi, jadi ketika kita punya Kita sudah di tahap interpretasi seperti yang tadi kita lihat ya.

Kita punya info-info. Nah info itu kita sebarin ke satu tim. Kita kasih tahu hasilnya A, hasilnya B, hasilnya C. Nah setelah kita tahu hasilnya seperti apa, biasanya dari situ kita akan mendapatkan banyak ide.

Oh sepertinya oke. Kalau solusinya kita lakukan bla bla bla. Jadi yang pertama itu dari diskusi.

Dan yang kedua, kalaupun kita tidak punya teman diskusi, kita bisa sekali mencari source atau mencari sumber yang lain. Kita bisa dari baca buku, kita bisa benar-benar diem sambil mikirin kira-kira yang tepat apa. Yang penting sesuai dengan data. Oke, wah thank you so much nih pertanyaannya. Ini juga banyak ditanyain sama teman-teman yang lain, mudah-mudahan bisa terjawab ya.

Nah, pertanyaan selanjutnya nih Kak dari Diki Ahmad Fauzi Salsabili. Halo Kak, untuk scrapping data misalnya dari data ulasan aplikasi pada Play Store supaya terbawa semua itu gimana Kak caranya? Silahkan Kak.

Baik, untuk scrapping data kunci yang paling penting adalah jangan sampai Ada kayak semacam satu elemen yang kita tidak tulis di kodingan. Biasanya kalau ada satu elemen yang keskip, kita tulis gitu, kita nggak mengambil elemen tersebut, dia nggak akan tertarik gitu, nggak akan keambil. Tetapi perlu digarisbawahi juga bahwa setiap website, setiap aplikasi itu pasti dia punya batasan. Seberapa banyak informasi yang boleh discrapping secara bebas oleh orang-orang gitu. Jadi bisa ada dua hal nih yang terjadi.

Bisa karena kita tidak memasukkan itu dalam codingan atau memang karena dibatesin sama si website atau aplikasi tersebut. Oke. Thank you so much nih pertanyaannya ya untuk Diki. Semoga bisa terjawab juga. Dan mungkin kita bisa lanjut dulu ya Kak ke pertanyaan setelah ini.

Masih ada... banyak nih ternyata ya ada dari Sri Setyani Oke, Kak Regita nih mau tanya, kalau misalnya ada data yang nul, itu lebih baik di drop atau di fill? Ini mungkin berkaitan juga sama yang di bawahnya dari Fariski, pada saat keadaan gimana diisi dan pada saat gimana di drop gitu, mungkin boleh dijelasin ya Kak Oke Kapan data yang kosong data yang hilang itu kita hapus atau kita isi?

Nah ini lumayan kompleks ya karena pembicaraannya itu kita harus tahu klasifikasi missing data. Jadi missing data atau data yang nul itu bisa diklasifikasikan menjadi empat tipe. Ada data yang NMR, MMR, dan NR macam-macam. Jadi ada yang missing not at random. Jadi missingnya itu bukan karena ketidaksengajaan.

Jadi dia sengaja dihilangin aja gitu. ada yang missing random atau MAR, ada yang missing randomly chance, jadi ada chance yang dia random. Ada banyak sekali tipenya, ada 4. Nah, dari 4 klasifikasi itu kita harus tahu data yang hilang ini dia masuk ke mana.

Nah, di setiap tipe itu akan kita ada treatment atau ada perilakunya masing-masing. Contoh. Kalau datanya itu missing at random, biasanya kita lakukan apa. Jadi itu tergantung dengan klasifikasi. Tapi, ada tapinya nih.

Tapi secara garis besar, ketika datanya nul, itu yang perlu kita cek adalah dia penting apa enggak. Kalau dia enggak penting, kita bisa hapus. Kalau dia penting banget-banget, kita pasti jelek analisisnya kalau kita enggak masukin data.

Baru tuh kita feel gitu. Oke, jadi berarti perlu tahu dulu ini missingnya karena apa gitu ya, jenis missingnya. Sama kira-kira datanya penting atau enggak untuk analisis gitu. Jadi setelah itu baru bisa diputuskan ya apakah teman-teman drop atau feel.

Semoga terjawab nih untuk Sri dan Fariski. Selanjutnya karya kita dari Damar Dava nih pertanyaannya. Apakah rumus yang ada di spreadsheet ini harus dihafalin?

Kalau tidak, apakah ada cara lain untuk merekenai? Kira-kira kalau seperti ini, aku butuh rumus A atau B, jadi tinggal pencet saja. Nah, ini mungkin juga banyak digalauin ya, karena banyak rumus-rumusnya.

Apakah harus hafal semua atau gimana? Silahkan, Kak. Oke, jadi kalau ditanya harus dihafalin atau enggak, ya lebih enak kalau kita hafal. Karena kita tidak perlu googling lagi, kita tidak perlu... perlu cari-cari lagi.

Jadi kalau hafal lebih enak. Nah, tapi kan mungkin kayak berat banget sih harus ngafalin gitu. Sebenarnya enggak, karena apa? Karena itu sesuatu yang kalau kita pelajari dari hari ke hari, itu semakin ngerti gitu, semakin mudah kita pahami. Terutama karena kalau nanti di kelas Revoyu itu, ada semacam penjelasan secara detail sekali, setiap, bukan setiap function ya, tapi setiap statistics term.

Jadi sebagai contoh, Oh kuartil, apa sih kuartil gitu? Kalau kita cuma ngapalin function mungkin kayak nggak ngerti gitu ya meskipun muncul hasilnya. Tapi kalau kita jelasin secara statistik kuartil itu apa, bagaimana rumusnya, perhitungannya gimana, bentuknya gimana, itu pasti akan secara otomatis kita juga ngerti gitu untuk rumusnya. Jadi memang itu bukan dihafal tapi dipahami.

Apakah ada cara untuk merekognize kalau case seperti ini butuh rumus A, butuh rumus B? Sebenarnya ini tergantung dengan case-nya juga ya. Tapi yang jelas kalau kita melakukan analisis data, biasanya analisisnya yang dasar-dasar ya, yang seperti IDE itu sudah pakem. Data cleaning itu juga sudah pakem. Harus dihapus yang kotor, kita...

Hapus kolom dan sebagainya itu sudah pakem. Jadi harusnya sih tidak terlalu susah ya untuk hal-hal yang pakem. Oke, semoga terjawab ya. Jadi mungkin untuk rumus-rumus yang ada pakemnya gitu ya, mungkin yang esensialnya harus dipahami dan dihafal juga. Tapi intinya berarti memahami dulu ya Kak ya.

Jadi rumus ini tuh maksudnya apa dan supaya bisa lebih mudah. Semoga terjawab ya Damar dan teman-teman yang lainnya juga nih yang punya pertanyaan serupa. Nah ini mungkin dua pertanyaan terakhir ya di walem hari ini dari Sargin. Apakah sama nih melakukan cleaning data di Excel dan juga Google Spreadsheet dan penggunaan rumusnya apakah sama di kedua tools tersebut? Karena mungkin di sini ada teman-teman juga ya yang lebih biasanya pakainya Excel atau mungkin nggak pakainya Spreadsheet gitu.

Silahkan Kak. Oke jadi... Apakah sama? Kurang lebih sama ya.

Kurang lebih sama, jadi tidak ada perbedaan sejauh ini. Tapi mungkin secara tampilan, secara mungkin fitur, atau mungkin kelengkapan, ada sedikit perbedaan. Tapi sebenarnya tidak major ya. Bukan sesuatu yang beda banget gitu.

Jadi function-functionnya, rumus-rumusnya harusnya sih sama gitu ya. Oke, semoga terjawab ya Sargin dan teman-teman yang lain juga mungkin disini ada yang menggunakannya Excel gitu selain spreadsheet. Nah, last question Kak dari Nariswari Firjatullah. Halo Kak, mau tanya untuk perhitungan upper dan lower apakah selalu 1,5 dan kenapa 1,5 Kak angkanya? Silahkan Kak.

Oke, wah ini pertanyaannya visioner sekali ya karena ini adalah materi yang exclusively setahu aku. aku disediakan oleh Revoyo karena memang ini tidak terlalu banyak diobrolin. Kenapa 1,5?

Sebenarnya ceritanya panjang, tapi dia itu awalannya kenapa bisa 1,5 itu karena ada suatu metode pencarian outlier yang dicetuskan oleh scientist seorang statistikawan namanya Tuki. Jadi tulisannya itu... T-U-K-E-Y, jadi mungkin teman-teman bisa searching outliers formula 2 key gitu. Nanti akan ada tuh penjelasan bagaimana 1,5 ini muncul. Tapi apakah 1,5 ini sudah pasti selalu itu gitu?

Apakah harus selalu 1,5? Sebenarnya jawabannya tidak. Kenapa?

Karena ada case ketika kita kecilkan koefisien tersebut menjadi angka 1, 0,1. Atau mungkin kita besarkan tergantung data yang kita punya. Nah, cerita lengkapnya ini itu adalah salah satu materi yang menurut aku lumayan life changing karena jarang banget diomongin. Tapi ini cover nanti di review.

Ini tentang materi outliers by 2Key. Nanti bisa searching juga. Oke, thank you so much nih pertanyaannya teman-teman.

Dan itu tadi adalah pertanyaan terakhir. Jadi kalau misalnya teman-teman di sini pengen belajar lebih lanjut lagi ya karena di hari ini hanya 2 jam aja durasi kita. Sedangkan kalau di full stack nanti mungkin bisa 1-2 minggu lebih panjang durasi belajar per topiknya. Nah, thank you so much juga nih untuk karya kita.

Udah memberikan banyak banget insight terkait spreadsheet. Udah diajarin juga cara penggunaannya dan udah menjawab pertanyaan teman-teman. Mungkin sebelum kita berpisah dengan Kak Regita, dan kita akan ketemu lagi besok ya teman-teman, tenang aja. Kak Regita, ada pesan-pesan dulu nggak buat teman-teman hari ini yang baru pertama kali pakai ini Spreadsheet untuk melakukan data analytics dan baru pertama kali kenalan juga sama tools-nya, kira-kira ada tips-tips apa, silahkan Kak.

Oke, thank you, thank you Cita. Jadi tipsnya adalah keep learning, karena sebenarnya data analytics itu adalah pengetahuan yang dipakai Di mana-mana mau teman-teman jadi data analis, mau jadi data scientist, jadi product manager, atau role apapun itu bisa banget menggunakan ilmu ini. Jadi jangan pernah takut kayak nanti kalau belajar ini kepake nggak ya gitu, karena pasti kepake. Bahkan mungkin kalau teman-teman bekerja di bidang kesehatan, menjadi dokter, itu masih kepake banget loh ini.

Jadi jangan khawatir apakah ini menjadi investment yang buruk gitu ya untuk masa depan. masa depan enggak gitu di masa depan satu-satunya bukan satu-satunya ya salah satu skill yang bikin kita lebih oke dari itu adalah skill analytics jadi kurasa ini bukan investment yang buruk untuk teman-teman belajar jadi keep learning and keep going ini ilmu yang mudah untuk kita pelajari dan pasti bisa ah Oke, thank you so much Kak Regita untuk pesan-pesan dan tips-tipsnya. Mudah-mudahan bisa bermanfaat juga buat teman-teman yang hadir. Jangan lupa semuanya say thank you ya untuk Kak Regita. Dan mudah-mudahan Kak Regita sehat-sehat terus supaya kita bisa ketemu lagi di sesi besok.

Thank you so much Kak Regita. Selamat malam. Thank you juga, bye.

Oke, gimana nih teman-teman untuk sesi hari ini? Seru banget ya. Jangan lupa besok kita ada lagi sesi bareng sama Kak Regita.

Nah sekarang aku mau ingetin dulu tentang tugas terutama buat yang belum mengerjakan karena deadline-nya ini ada di akhir minggu ini ya teman-teman. Yang pertama ada certification test, ini adalah soal pilihan ganda dimana nanti ada 20 soal yang berkaitan dengan materi mini course dan nanti juga ada 16 soal tambahan lainnya yang berisi logical and numerical test. Nah yang wajib dikerjakan hanya yang 20 soal aja ya teman-teman.

Jadi yang 20 soal ini wajib dikerjakan dan wajib lulus sebagai salah satu syarat untuk teman-teman dapetin sertifikat mini course ini. Jadi kalau misalnya sekiranya nanti teman-teman udah ngerjain ternyata belum lulus itu artinya teman-teman belum bisa dapetin sertifikatnya. Dan jangan lupa juga untuk wajib hadir setiap hari ya karena kehadiran kalian juga sangat mempengaruhi pembagian sertifikat ini. Nah, deadline-nya ada di hari Jumat ini jam 12 malam.

Jadi, mungkin kalau teman-teman mau mencicil mengerjakan, tidak perlu terburu-buru ya, supaya nanti jawabannya bisa maksimal, bisa diusahakan benar banyak gitu ya jawabannya. Bisa dicicil aja pengerjaannya, yang penting nanti tidak lewat pengumpulannya dari deadline ya, dari hari Jumat jam 12 malam. Yang kedua, ada tugas case study.

Nah, kalau case study ini tidak wajib ya, teman-teman hanya optional aja. Tapi teman-teman boleh banget mengerjakan case study ini untuk melatih lagi practical skill, terutama skill mengenai tools yang kita pelajarin bareng-bareng di mini course kali ini ya, supaya teman-teman bisa semakin terasah lagi. Nah, untuk case study ini juga buat yang nanti mengerjakan sesuai dengan arahan dan nanti sudah mengumpulkan case study juga sebelum dari deadline-nya, maka teman-teman bisa dapat kunci jawaban dari Revoyu yang bisa kalian jadikan bahan belajar lagi ke depannya. Mungkin bisa dijadikan juga mempunyai... perbaikan gitu ya sedikit-sedikit dari jawaban case tadi yang udah kalian buat sebelumnya terus kalian kepingin perlengkapi lagi setelah melihat kunci jawabannya supaya jawaban case tadi kalian ini makin on point, makin cantik gitu ya dan bisa dipamerin juga jadi mini portfolio kalian ke depannya.

Nah, case tadi deadline-nya ada di hari Sabtu ini jam 12 siang. Jangan sampai ketuker ya. Kalau certification test deadline-nya di Jumat malam sedangkan untuk case tadi deadline-nya di Sabtu siang.

Headline, terus juga mengenai link untuk tugasnya, aksesnya, itu bakalan di-share di grup seperti biasa. Setelah kelas nanti boleh di-check aja di grup masing-masing. Nah, so jangan lupa dikerjain karena banyak banget benefit yang bisa kalian dapetin kalau kalian ngerjain tugas-tugasnya. Yang pertama, kalian bisa mengasah kemampuan di bidang data analytics ya pastinya. Terus yang kedua, nah kalian juga bisa berkesempatan dapat jalur fast track kalau mau bergabung ke full stack program.

Yang ketiga... kalian bisa dapat sertifikat digital yang bisa kalian gunakan juga untuk meningkatkan personal branding kalian secara profesional ya teman-teman. Nah, sekarang aku jelasin mengenai jalur fast track nih yang tadi sempat aku sebutin ya.

Jadi, jalur fast track ini apa? Kalau kalian mau gabung ke full stack data analytics program, sebenarnya kalian harus melalui serangkaian tes admisi dan juga tes kecocokannya dulu. Dari mulai nanti ada application, ada tes, ada video call interview. Kalau udah lulus semuanya, baru teman-teman bisa gabung ke full stack program. Nah, tapi khusus buat teman-teman yang mengerjakan.

menggunakan certification test yang tadi ya yang 20 soal beserta dengan 16 soal logicalnya meskipun tidak wajib kalian berhasil mengerjakan dan berhasil dapat nilai yang maksimal dari tugas-tugas tersebut maka teman-teman akan dapat yang namanya jalur fast track ini dimana nanti akan ada tahapan tes yang bisa kalian loncatin supaya nanti bisa lebih cepat ngikutin proses admisinya dan bisa lebih besar juga peluang kalian untuk keterima bergabung di full stack program. Kenapa harus ada tes masuknya dulu? Ada alasan ya, yang pertama untuk menguji kecocokan berkarir ya dari kalian sama data analitik itu kayak gimana sih. Lalu yang kedua supaya tim Revoyu bisa bantu nih merencanakan strategi karir kalian ke depannya. Yang ketiga untuk bisa menentukan besaran job guarantee juga.

Dan yang keempat untuk bisa memberikan lingkungan belajar yang kondusif dan mendukung. Karena dengan adanya tes masuk ini, Artinya orang-orang yang nanti bergabung ke full-stack adalah orang-orang yang tersaring, yang sama-sama punya motivasi tinggi dalam belajar, supaya nanti bisa jadi support system yang baik juga untuk kalian jika kalian bergabung ke full-stack programnya. Nah, ada kabar baik buat kalian yang ikutan mini-course di batch kali ini? Kalau kalian berhasil nanti mengerjakan certification test, lulus, dan hadir setiap hari, maka kalian akan dapat sertifikat yang bisa kalian gunakan juga nih untuk ikutan social media competition.

competition seru banget ya teman-teman nanti bisa memenangkan eksklusif review merchandise dengan cara ngepost sertifikat kalian ke sosial media misalnya LinkedIn dan lain-lain terus sekaligus juga nih kalian bisa nunjukin skill di bidang data analitik sekalian dan kalian bisa gunakan kesempatan ini untuk memperluas networking ke sesama data analytics antusias lainnya itu dan yang paling menarik juga kalian bisa tergabung menjadi bagian dari review mini course community dengan jumlah anggota yang udah ngamain-main Detail gimana sih cara ngikutin competitionnya bakalan di-share setelah teman-teman dapetin sertifikatnya. Jadi nanti teman-teman stay aja di grup ya supaya gak ketinggalan info nih kapan-kapan aja sih sertifikatnya dibagikan dan lain sebagainya. Oke teman-teman itu tadi adalah sesi penutup ya di hari ini. So thank you so much teman-teman yang udah hadir dan sudah latihan bareng-bareng nih menggunakan salah satu tools.

akan ketemu lagi dengan latihan menggunakan tools lainnya di bidang data analytics. Siapa di sini yang penasaran, aku tunggu kehadirannya besok, karena besok kita akan membahas salah satu tools di bidang data visualization, yaitu Looker Studio. Nah, keren banget ya, seru banget, pastinya nggak kalah daging.

Jadi, teman-teman jangan lupa hadir, karena kehadiran kalian juga sangat mempengaruhi sertifikasi pastinya. Dan buat yang ingin daftar ke Fullstack Data Analytics Program, masih bisa ditunggu pendaftarannya. Buat yang penasaran ya, cepet-cepetan nge-tag-in dulu kuota nih untuk ikutan tes admisinya secara gratis, mumpung masih ada kuotanya.

Bisa klik link pendaftaran yang ada di pin live chat YouTube. Dan nanti kalau misalnya sudah daftar, tenang aja, nggak akan langsung disuruh membayar ya. Teman-teman bisa ikutan dulu tes admisi dan juga konsultasinya secara gratis.

Oke, setelah ini seperti biasa, jangan kemana-mana, karena akan ada penjelasan mengenai tata cara ataupun petunjuk pengisian form kehadiran. Jadi mohon disimak nih teman-teman supaya nanti tidak salah dalam mengisi form kehadirannya Oke deh kalau gitu sekali lagi aku mau ucapin terima kasih banyak buat teman-teman semuanya Dan selamat malam sampai jumpa besok See you tomorrow Bye-bye Prevoners jangan lupa isi form kehadirannya ya Untuk bisa dapetin sertifikatnya nanti Form kehadiran ini cuma bisa diakses melalui Youtube loh Gampang banget kok caranya Tinggal scan aja QR Code yang ada di layar ini, atau teman-teman juga bisa sambil pause ya. Atau bisa juga langsung klik link yang ada di live chat dan juga description box. Setelah itu tinggal isi aja deh formnya. Pastikan kamu mengisi dengan data diri yang benar dan juga gunakan email yang sama dengan email pendaftaran ya.

Terima kasih.