Oke selamat pagi teman-teman selamat pagi e Pak Apakah suara saya terdengar sudah kedengar Oke teman-teman boleh sekalian openom juga ya di open karena sesinya akan mulai iniedikitasi saya akan menggantikanu S moderator hari ini selama awal sesi aja mungkin nanti di akhir Bu jka Jika memungkinkan akan join mungkin eh untuk sesi hari ini akan disampaikan oleh Pak Sandi irfansah selakuak data sinence dari tek Ya jadi untuk sesi hari ini terkait dengan sesi kita hari ini terkait dengan pemodelan data ya Pak Sandi ya Iya benar mungkin dari Pak Sandi sedikit Intro sedikit intro dari saya mungkin dari Pak Sandri bisa langsung di terima kasih ya sama-sama Oke bentar ya di sini saya coba Share screen dulu oke he eh Shin saya sudah kelihatan Iya sudah terlihat Pak oke ya oke ya e selamat siang ya buat teman-teman semuanya ee jadi untuk hari ini ya saya akan menjelaskan berkaitan tentang pemodelan data tapi di sini kita spesifiknya lebih ke pemodelan prediktif ya menggunakan machine learning dan juga Deep learning nah eh di sini mungkin kalau misalkan teman-teman ada yang belum kenal saya ya ini mungkin perkenalan dulu ya nama sayaah bisa dipanggil aja Kak Irfan atau Mas Irfan ggak masalah ya jadi itu Panggilan saya sebenarnya bisa juga Sardi ya Jadi ada dua ada Sardi dan Buat panggilan jadi eh bisa pilih satu-satu aja ya boleh Sardi atau mungkin heran untuk panggilan tadi Nah background saya ini eh sebenarnya untuk saat ini saya ngajar ya ngajar di hetived untukakter dan juga kurikulum developer di bidang data sinence ya dan juga berkata Sama ai terus selain itu saya juga ada ngajar juga di program kampus Merdeka Ya sebagai mentor dan juga instrukor untuk eii dan cyber security ya di program kampus Merdeka kalau selain itu saya juga ada sampingan ya samping-sampingan kayak misalkan mungkin eh buat sebagai instruktor di beberapa ini program corporate training misalkan ada yang kemarin itu ada yang di Bank BNI ya Ada juga buat di e angkasapura dan lain sebagainya jadi kebanyakan sebenarnya lebihnya ke ngajar ya untuk profesi saya saya juga mendirikan e semacam ini yaak komunitas atauembaga namanya dan di situ Saya biasanya sharing ya ke teman-teman atau ke orang lain secara gratis ya Yang minat untuk belajar berkaitan sama dataun Kemarin saya perahik jugaara gratis untuk program berkaitan sama bikin Pro ya data sence menggunakan macharning dari saya kalauendendikannya S1 dan S Teknik Elektro ya Jadi bisa dibilang ee Ada enggak sih kaitannya antara elektro sama eh data science atau tentang Ai Sebenarnya ada juga ya karena waktu saya kuliah dulu ya Ee di S1 dan s2-nya itu ada berkaitan sama pengolahan Citra ya Dan kalau kita bicara ke pengolahan Citra ya itu juga nanti dibutuhkan juga ya kalau misalkan kita pengin ee mengembangkan misalkan untuk klasifikasi gambar lah misalkan ya di bagian computer visionnya Jadi sebenarnya ada kaitannya juga ya ke situ oke eh Itu sekilas saja tentang perkenalan diri saya tadi ya Nah di sini eh kita masuk dulu ke tentang apa sih pemodelan data ya kan topik utamanya sebenarnya tentang pemodelan data ya Jadi kalau misalkan dari sisi definisi ya pemodelan data Ini adalah sebuah proses ya Di mana kita mencoba mengolah atau mengkombinasikan beberapa data ya untuk nantinya akan kita analisis ya dari dataaset tersebut misalkan Mungkin saya ada beberapa data atau mungkin tabelah misalkan ya kalau misalkan kita ambil dari database ya Nah nanti dari tabelnya tersebut bisa kita gabungkan menjadi satu tabel ya Nah setelah kita gabungkan atau melakukan denormalisasi data ya kan nanti dari datanya tersebut ya biasanya ya itu akan dimanfaatkan oleh eh seorang data scitis ataupun data analis untuk analisis ya Tapi waktu proses denormalisasi atau mungkin ada juga nanti normalisasi data itu biasanya kerjaan eh di bidang data engineer ya untuk mengatur eh arsitektur dari database-nya tadi sedangkan data analisnya dan data saintisnya ya Ini Mereka mencoba mengambil datanya tadi tugasnya bukan buat ngaturnya ya tapi buat ngambil data untuk ngendapatin insight-nya Nah itu data analis dan data sisnya tersebut gitu dan dari pemodelan data tersebutlah nanti ya bisa dimanfaatin nih misalkan mungkin kita pengin lagi membuat pemodelan preditif ya buat apa nih preditifnya nanti tergantung bisnisnya ya mungkin nanti eh misalkan saya kerja l ya di perusahaan e-commerce misalkan Nah kalau misal Saya kerja di perusahaan e-commerce nah kira-kira Apa yang dibutuhkan oleh perusahaan tersebut untuk dianalisis misalkan mungkin nanti kita peng prediksi tren TR penjualan dari suatu produk misalkan Apakah dia itu bakal cenderung naik di tahun selanjutnya atau di bulan selanjutnya atau malah cenderung turun bisa kita prediksi atau ada juga nanti kita peng melakukan segmentasi pelanggan ya Man yangel yang tawarkan misalkan Nah itu bisa juga ya gitu oke itu berkaitan sama predictif modeling dan ketika kita pengin membuat pemodelan prediktif ya langkahnya apa aja sih Nah ini ada gambarannya ya jadi Biasanya kita define dulu objektifnya ya dan juga indikatornya itu apa jadi kebutuhan kita itu apa ya tujuannya buat apa nih ya pemodelannya tadi setelah kita tahu tujuannya tersebut baru kita cari tahu lagi ada enggak datanya ya ya jangan sampai kita pengin bikin pemodelan ya machine learning nanti tapi datanya enggak ada makanya itu mesti jadi pertimbangan juga nih ada enggak datanya ya t kalau seandainya misalkan kita ada database nih tapi e mungkin kurang datanya ya Atau mungkin terkadang kita butuh melakukan yang namanya webing buat ngambil sumber dari internet misalkan ya dengan cara scing tadi Nah itu bisa juga ya Jadi ada yang mungkin kita ngambilnya sumbernya dari database ada juga mungkin dari ya jug Dar Ya ada juga mungk kita melakan namanyauk mendapatkan datanyaerseut Nah setelah kita dapat datanya ya kan nanti bisa kita proses ya miskan mungk ada persan di dapatin tadi itu banyak Eh out layernya ya atau ada anomalinya ya Atau bisa jadi mungkin ada data yang terduplikasi ada juga missing values-nya ya kan dan lain sebagainya Nah itu mesti kita bersihkan dulu datanya tersebut ya Nah kalau udah bersih ya bagus nih ya kan UD bersih nih datanya Nah nanti kita bisa lanjut ke analisis datanya ya untuk ngedapatin insight-nya nanti ya ya misalkan kayak tadi ya Saya pengin tahu nih tentang penjualan ya kan Nah mungkin kita pengin analisis dulu nih kira-kira penjualan di tahun sebelumnya itu berapa ya total barang yang terjualnya ya Terus profitnya berapa nih Yang didapatin Ya dari produk tertentu misalkan nahti bisa kita analisis Nah setelah kita analisis baru kita tentukan nih ya model yang mau kita gunakan itu apa Nah misalkan kasusnya tergantung kasusnya nanti ada yang mungkin klasifikasi ada juga regresi ya kalau klasifikasi misalkan Saya pengin mengklasifikasikan ee produk yang terjual ya misalkan ya berdasarkan kelasnya nanti ya kategori tertentulah misalkan atau ada juga regesi ya misal peng prediksi harga barang misalkan berapa nih ya Atau bisa kita tentukan ya Modelnya itu mau paketnya apa atau mungkin kayak tadi ya buat segmentasi Ya itu bisa juga Nah nanti baru kita bisa ngelatih modelnya tadi ya sudah kita tentuin mau modelingnya ke mana misalnya klasifikasi ya atau regesi kita training nih ya dari data yang sudahudah kita dapat tadi kita training kita validasi ya Nah mungkin selanjutnya kita butuh deploy ya atau buat dashboard ya Nah kalau deploy biasanya nanti kita bikin kayak aplikasi ya aplikasi biar nanti dari model yang sudah kita buat ya itu bisa digunakan kembali ya untuk proses yang lain misalkan atau mproses kasus yang sama ya tapi mungkin waktunya agak berbeda nah ketika tem-an diiemb pem atau makan struktur atau enggak sih ya apakah dia struktur data atau unstruur data ya Kenapa karena ini mempengaruhi output-nya nanti juga ya ya nah ciri-ciri strukter data itu kayak gimana nah kalau struter data ini dia udah terorganisasi sudah terorganisir lah istilahnya ya Atau eh gampangnya sih teman-teman di sini bisa bayangin aja kayak data tabular ya misalkan ada kolum ada baris dan kolum ya kan Nah itu tergolong data yang terstruktur Terus misalkan sudahah ada tipe datanya ya misalkan dari rdbms ya itu mungkin dari pogis atau mquel ya kan biasanya udah ada tipe datanya ya kan apa nih tipe datanya ya kan Nah itu tergolong data yang terstruktur oke terus juga nanti ada juga biasanya kalau data-data yang terstruktur ya itu kita lebih mudah untuk menganalisis datanya ya penyimpanannya pun juga lebih mudah ya kalau data-datanya terruktur ya dan juga dia udah ada tipe datanya tadi ya udah terdefinisi ya misal Mungin ada De ya terus ada string ada integer ya Bahkan nanti mungkin ada lagi Eh dalam bentuk FL dan lain sebagainya itu untuk yang data terstruktur kalau yang unstrur gimana ya kalau yangr berarti ini lawannya dari yang terstruktur tadi ya dia enggak terorganisir ya contohnya apa kalau tadi kan Misalkan kita mungkin ada contohnya data yang dalam bentuk tabel mungkin Excel ya Excel misalkan ya atau dari tabel dari database ya misalkan Nah kalau yang ini misalkan kita dari email ya email atau mungkin dari data log ya dari dokumen PDF video audio image ya gambar Nah itu tergolong sebagai data yang tidak t Oke dan biasanya data-data yang tidak terstruktur tadi ya kalau kita menggunakan anggap Pak Google itu Nanti disimpan keama ke yang namanya dat jadi dat ini kalau di google adaanya dat stage itu bisa Menan untuk data-data yangedangkan kalau data yang ya ini biasanya Disan ke data Ware bisa juga atau kalau di gole namanya by mis tab kita tabular iniudahudahanyaudah berisat ni ya ya untuk data-data yang terstruktur tadi tapi kalau anstruter misalkan Gambarlah kita pengin klasifikasi gambar nah ketika kita pengin klasifikasi gambar gambar itu kan apa ya enggak bisa secara langsung ya dikelola oleh mesin mesti kita ubah dulu menjadi apa menjadi pikel ya oke yang di mana nilai pikselnya itu dari 0 sampai 255 misalkan ya kalau misalkan kita mengolah Citra atau image tadi baru nanti setelah kita Ubah menjadi ke dalam bentuk numerikal atau angka itu bisa dikelola oleh mesin ya Jadi kita mesti aki dulu dari gambarnya tersebut baru kita bisauk ke pemelan Nah di sini ada lagi tentang a Maar dan jadi siaudahak asahhnya belajarnya ya Eh apa jurusan kuliahnya sebagai it ya Atau mungkin eh di bidang komputer sains ya Jadi kalau misalkan ei ini sebenarnya ini berkaitan sama Bagaimana suatu komputer atau mesin lah ya itu dapat meniru kecerdasan manusia buat apa nih ya kan nah buat menyelesaikan permasalahan-permasalahan yang dihadapi oleh manusia atau mungkin buat tugas-tugas tertentu ya entah itu mungkin kayak ada tugas kayak tadi klasifikasi ya regesi buat prediksinya atau buat pengenalan pola dari suatu data ya Nah itu disebut sebagai namanya atau Kasan buatan nah Sain a ada lagi macharning subs bag bagi dari Nah kalau di Maar ini berkaitanama Bagaimana suatu m itu delar ikasi patter atau pola serta nanti dapat membantu kita untuk membuat suatu keputusan atau deision nanti ya tanpa diprogramara ya atau istilahnya mesinnya tersebut belajar sendiri Mereka mencoba mempelajari data secara otomatis dengan sendirinya machinearning ya di dalam machine learning ada laginya lagi ya namanya deepar ya Nah kalau De lening ini berkaitan sama ya Eh ini ya mach learning tadi ya kan yang terinspirasi dengan jaringanar manusia makanyaan ada yanganya lagi mis kita bar adaal jaringanaruan di managorit tersebut ya nah istilahnya ini ini berkaitan sama jumlah layernya ya ataupisan yaada jaringan juga B Nah selanjutnya lagi tipe pemodelan pada machine learning itu apa aja ya Nah mungkin kalau teman-teman di sini pernah searching atau Googling berkaitan sama machine learning tadi ya umumnya sih sebenarnya Ada yang baginya jadi t ada yang baginya jadi EMP ya itu ada juga ya tapi yang sering banget Ya bisa dibilang sering banget eh dipelajari ya yaitu ada superprise learning dan unsise learning ya Nah kalau yang empat apa aja DII ada tiga ya Ada superp learning ada UN learning ada juga Rein lear Nah nanti ada lagi Yangi learning jadi dia kayak gabungan dari dan juga nah kalau learning itu gampangnya gampangnya adalah kita mencoba melatih data atau mempelajari data yang sudah ada labelnya atau targetnya lah itu superpise learning dan nanti dibagi lagi nih kategorinya ada buat klasifikasi ada juga regesi ya kalau yang unsupprise ini yang enggak ada labelnya ya jadi di sini kita mencoba mengelompokkan data berdasarkan kemiripannya misalkan nah at clustering nanti ya ada lagi reinement learning ya atau pembelajaran penguatan Nah kalau bias contohnya Kak misalat at berdasarkan feedback Biasanya jadi ada tugas tertentu ya yang diterapkan untuk ke mesinnya tadi ya misalkan Nah nanti dia akan memberikan feedb ya berdasarkan output yangapat Apa yang dilakukan oleh mesinnya tersebut jadi ada ACnya nanti kita kasih tugas nihtionnya anggap tugasnyaalah biar nanti Katakanlah ada robot ya robotnya terseb bisa mengambil barang ya atau memindahkan barang ya menggunakan tangannya mis tangan dariotnya tersebut Nah kalau misalkan dia bisa ya nanti ada feedb ataunya apa Nah kalau mis kita bicara mesin anggap kayak angka dan Jadi kalau misalkan dia ber berak berak terus ya berusaha robotnya itu biar nanti dia bisa ya ngedapatin barangnya tersebut ya dan bisa memindahkan barangnya tadi atau eh skills ya tentang reinforement learning Ya cuma nanti di sini kita lebih spesifiknya ke superpise dan unsuppise-nya ya Oke Oke selanjutnya lagi nah ini tadi sudahah saya singgung juga ya superv learning jadi kita mencoba mempelajari data yang sudah ada labelnya Ya sudah ada targetnya istilahnya dan itu ada klasifikasi dan regesi ya misalkan kita punya inputan data ya inputan datanya itu eh anggap aja ada fiturnya berkaitan sama eh warna ya itu fiturnya misalkan warna Terus mungkin ada apakah dia memiliki panjang lebar sama tinggi atau enggak Ya itu anggap a sebagai fiturnya targetnya targetnya adalah bentuknya nih di sini kan ada unuk yang bulat ya atau lingkaran ada yang bentuknya segitiga sama Square ya Nah kita pengin prediksi ya klasifikasikan Apakah dia tergolong Square atau mungkin lingkaran atau mungkin yang segitiga Nah berarti di sini kita tahu nih oh bahwa kalau segitiga ini ya misalkan Dia memiliki tingginya misalkan ada tinggi ya Ada tinggi dan ada juga warnanya biru misalkan berarti pintar itu segitiga ya Nah itu kalau di superping jadi Udah ada labelnya ya dari data yang dilatihnya tadi ya Nah berbeda lagi kalau misalkan kita nanti pakai yang UNP learning Oke Nah di sini kita masuk dulu ya yang ke learningnya tadi kan ada dua ada klasifikasi ada juga regesi nih ya ya klasifikasi itu apa ya gampangnya kalian ee mencoba memprediksi data kategori ya atau nanti ada yang nyebutnya sebagai kelasnya kelasnya ada berapa nih ya targetnya tadi contohnya misalkan kita pengin memprediksi Apakah seseorang tersebut terkena stroke atau enggak ya Atau dia e terkena pneumonia atau malah normal ya kondisinya Nah itu tergolong klasifikasi Ya ada juga nanti regesi ya kalau regesi ini apa ya regesi ini ini kita mencoba memprediksi data yang udah ada targetnya tapi targetnya itu bukan kategori ya tapi numerikal numerikal kayak misalkan harga barang gaji karyawan Ya itu tergolong sebagai regesi Oke jadi beda ya antara klasifikasi dan regesi dan Mih diingat juga Terkadang ada kasus klasifikasi ya gate-nya dalam bentuk numerik contohnya misalkan tadi kan ini ada stroke dan EE yang enggak terkena stroke ya atau yang normal ya Nah misalkan nanti kita udah ada datanya tapi datanya itu dilabelkan dengan 0 dan 1 Walaupun dia numerik ya itu tetap kategori kekal karena satunya tadi mewakili yang stroke sedangkan yang nol tadi mewakili yang normal atau yang bukan stroke ya ya oke nah itu berkaitan sama kasusnya ya Ada klasifikasi ada juga regesi algoritmanya apa aja ya buat pemodelannya tadi ya kalau misalkan berkata sama Super Learning ya ini ada neural Network ya bisa juga ya itu mungkin nanti pakai artificial neural Network atau CNN ya convolional neural Network ada juga nanti recurent neural Network atau rnn ya terus Selain itu ada juga Bi Line regation Logistic regation random for m ya Ada lagi nanti S ya Nah itu untuk algoritma berkaatan sama aplikasinya apa Nah ini banyak nih aplikasin Sebenarnya ya DII saya singg beberapja ya ada buat klasifikasi gambar ya kan buat Deti suatu penyakit ya jugaat dari teksnya misalkan di tersebut ya ter ada juga buat analisis sentimen ya kita peng analisis sentimen Apakah dia itu posi ne ataual ya bisa juga beran sama dari suatu miskan ya di Twitter Ada juged Har rumah buat yang ini tadi ya gak adaelakelimongaknya ya Bi kita t diiah kita Kay membuatbel dariel adanya Ya anggap aja kita enggak tahu ya ini buah apa kita enggak tahu ya kan kita cuman punya ee ada Data datanya itu bersih bentuknya ya Bentuknya apa apakah bulat atau panjang misalkan ya kan warnanya kayak gimana ya kan Nah itu istilahnya datanya kita ya kan Nah nanti di UN superpise Learning Kita bisa kelompokin datanya tadi berdasarkan kemiripan ya dari data yang kita dapatin tadi misalkan nih Oh di sini ada ee eh data yang di mana warnanya merah diakelompokin nih yang warna merahnya kayak gimana siapa aja yang warnanya merah ada juga yang warna kuning entar dikelompokin lagi yang warna kuning Nah itutering jadi dia mengelompokkan berdasarkan kemiripan contohnya lagi mungkin kayak kasus covid lah misalkan ya biar kita tahu nih Kan di covid misalnya kita engak ada labelnya ya E di suatu apa di suatu wilayah Apakah dia itu tergolong sebagai zona merah kuning atau hijau misalkan Nah itu bisa kita kelompokin atau clustering berdasarkan apa datanya apa nih datanya datanya misal jumlah kasus e covidnya misalkan terus ada juga mungkin jumlah kasus kematiannya berapa ya sama jumlah kasus orang yang selamatnya ya atau yang udah e enggak terkena covid tadi ya kan yang tadinya terkena covid terus sudahak terenovidnya ada berapa entar dikelompokin dari situ ya kan Oh misalnya kita dapat nih ada klter pertama ya klaster pertama ini anggap aja nanti kita kasih namanya itu adalah sebagai zona hijau nah ci-cirinya gimana di k pertama Oh ci-cirinya kalau yang di zona hijau jumlah kasus kematiannya kecil misalkan ya terus jumlah kasus orang yang terkena covidnya juga kecil juga ya kan Z hijau ada juga mungkin yang kuning yang kuning gimana nah ini mungkudah ini yaudah hampir besar ya atau hampir banyak jumlah kasus ya dan jumlah kematinya udah sedang nih misalkan misalkan kayak gitu ya yang kuning ada lagi jumah merah nah ini udah banyak banget misalkan ya total apa kasusnya dia atau tentanging tadi ya jadi kita bisa mengelompokkan data berdasarkan kemiripannya nah Contohnya apa aja di sini Kalau yang ini adaumnya ada ya ada Jen ada ada juga asosiasi ada juga dimensionality reduction kalau clering Contohnya kayak tadi yang saya bilang ya kita mengelompokkan data berdasarkan kemiripannya tersebut ya Dan ini bisa juga nanti buat kasus kayak segmentasi pelanggan misalkan ada klaster pertama nih oh klaster pertama ini pelanggan yang mungkin pendapatannya tinggi dan pengeluarannya tinggi juga ya Ada juga klaster kedua yang pendapatannya rendah tapi pengeluarannya rendah juga dan seterusnya itu clustering algoritmanya ada chemis clustering ada juga di scan ada juga gausian m model dan lain sebagainya selain clusttering ada juga Association rle ya oke Nah di sini dia berbasis eh aturannya ya ini akan menemukan yang namanya probabilitas kemunculan ya dari suatu item ya contohnya gimana ya contohnya misalnya di sini kita ada barang lah di suatu toko ya toko anggap aja toko a misalkan nah di toko a ini ya dia ada jual roti susu ya kan gandum ya kan dan lain sebagainya Ya ada nasi juga ada butter ya nahak ada pelanggan pertama nih pelanggan pertama dia beli roti susu buah ya Atau mungkin ada item lain yang dia beli misalkan terus panggalan kedua ya dia sama-sama beli roti dan susu juga misalkan ya berarti nanti karena kita tahu di sini ya customer pertama dan customer kedua dia sama-sama beli roti dan susu ya Nah kita pengin memperkirakan ya memperkirakan kira-kira kalau ada seseorang beli roti kemungkinan terbesarnya dia bakal beli apa ya oke Nah itu dia berkaitan sama yang Association R ya Oke berarti kan kita tahu Oh seharusnya kalau dia beli roti ya belinya susu karena probabilitas dari susunya ini lebih tinggi daripada buah ya atau nasi atau butter ya karena di sini sama-sama beli roti terus dia bakal beli susu jadi ketika ada yang beli roti dia akan beli susu ya peluangpeluangnya ya ya oke nah itu berkaitan sama tadi ada juga dimensionality reduction nah ini berkaitan sama pereduksian dimensi ya dari suatu fitur mis kita toal ada bisa menjadi biasanya tiknya ada yang namanya at bisa juga nanti buat customer segmentation ya pengelompokan produk atau mungkin rekomendasi sistem pun juga bisagunakan kalau di Biasanya kita kayakompok berdasarkan kemiripan dari perilaku user lah miskan jadi kalau mis ada user nih dia suka dengm itu ya misalkan ya dari sisi usernya Nah nanti ya di user lain gimana ya kan Nah misalkan dia suka nonton gener horor terus dia juga suka juga kalau misalkan suka horor berarti dia suka juga misalkan tentang apa eh science fiction Misalkan ya misalkan kayak gitu ya berarti nanti ada user lain yang kemungkinan sama percis ketika dia suka horor ya ya atau misalnya ada kita tahu nih dia suka film tentang film-film ee animasi misalkan animasinya tertentulah misalkan Nah bisa jadi nanti yang user lain ya yang suka animasi juga dia akan mirip juga ya Film yang akan dia sukain yaau bisa dikelompokkan berdasarkan kemiripannya tadi buat ngasih rekomendasi nih ya kan kira-kira apa atau kayak di YouTube aja L ya kalau teman-teman suka di sini searchingnya ya berkaitan sama konten edukasi berarti nanti mungkin iklan yang muncul berkaitan sama konten edukasi atau misal suka searching tentang game berarti iklan yang muncul ya tentang game karena sistem dari youtunya tah nih oh kalian suka nonton game berarti kan kemungkinan ketika ada iklan gamealian akan tertarik ya untuk melihat iklannya tadi mis ber samaendasi sistem kalau alur kerjanya gimana sih Ya kan tadi kita sudah membahas ya tentang yaah kalau car kerja dari gim sampaian kita membuat modnya ya pertama lagi Datanya ada at engak jadi kitaes dap duluanyaudah dapat di ya mungkin ada manipulasi data ya baru entar kita training kita latih datanya tersebut ya setelah dilatih kita ada testing testing ini buat apa buat nguji ya Apakah modelnya ini udah layak atau belum ya itu testing ya setelah ditesting misalkan Oh inih masih kurang bagus nih berarti kita bisa improve modelnya tadi ya oke dan nanti di sini istilahnya kayak nguping ya kalau misalkan masih jelek mungkin kita training lagi ya kan latih lagi modelnya dengan ee parameter yang berbeda ya dari modelnya tersebut ya sampai benar-benar mendapatin model yang anggap aja akurasinya akurasinya sudah bagus gitu baru nanti kita bisa masuk ke production-nya ya oke itu untuk machine learning-nya tadi ya Nah selanjutnya lagi apaagi nih ya Selain di sini alur kerjanya tadi ya teman-teman juga mesti mempertimbangkan tentang splitting datanya ini ya ini masih jadi pertimbangan juga kenapa ya karena ketika teman-teman mungkin ya waktu spitting data misalnya kita ada Sekumpulan data ya oke dari Sekumpulan data tersebut ya ternyata eh kita punya misalkan yang g apa aja Ada 100.000 lah 100.000 row baris ya ya terus kita pengin split datanya yang buat ada training misalkan nanti ada lagi testing dan validasi misalkan nah Apa itu training testing ya sama validasi ya training ini buat yang dilatihnya ya atau yang EE yang akan dipelajari oleh mesinnya tersebut ya itu data trainnya Oke validasi ya ini buat mengukur kinerja modelnya sekaligus buat mengoptimalkan parameter dari modelnya tersebut Oke jadi ini biasanya buat improvementnya nih kita cekk dulu berdasarkan validasinya kalau divalidasi ya kan baru entar finalnya ya finalnya itu masuk ke set pengujian atau testingnya ya nah gimana nih ya kan Apakah udah benar-benar bagus atau belum atau mungkin teman-eman DII bisa Bangin aja ya Contohnya kayak lagi belajar aja L gampang ya ya teman-teman lagi belajar nih ya kan biasanya kan kalau kuliah kan ada ujian ya kan Terus ada juga mungkin PR lah misalkan Ya ada apa ujian final Ya ada juga mungkin ujian ee yang biasa l misalkan tugas-tugas biasa ya Nah kalau waktu teman-teman belajar itu Isah trainingnya itu belajar melalui buku atau melalui dosen ya itu lagi trainingnya lagi mempelajari data atau informasi ya informasinya apa Nah tergantung pelajarannya apa nih kasusnya misalkan mungkin belajar tentang ee matematika ya berarti teman-teman mentraining atau mempelajari data tentang matematika tadi oke nah validasinya ya berarti ini istilahnya kayak dosennya tadi ya itu ngasih teman-teman tugas biar tahu ya ini tuh teman-teman Ini udah eh paham atau belum sama materi yang dipelajari Nah itu Istilahnya validasinya ya sebelum masuk ke pengujian akhir ya kan Oke atau validasi ya jadi misalkan Oh tahu nih dosennya tahu nih Oh di sini ada studen nih dia masih lemah di materi tentang statistikanya misalkan ya kan berarti nanti ketika di tahu masih lemah tentang statistika Berarti mesti dipelajari lebih dalam lagi tentang statistika nah istilahnya statistikan tadi itu kayak parameternya ya I masih Kita sesuaikan lagi nih apa si studennya tersebut biar mempelajari lebih tentang statistika agar Lebih baguslah hasilnya ya Nah itu validasi ya jadi dia buat mengukur kinerja sebelum masuk ke evuasi finalnya Nah setelah kita tahu nih udah kita coba kasih tahu ya kan kasih Feedback ya kan biar nanti lebih bagus ya kan Nah nanti kita bisa finalnya testing ya kan ada tugas final ya kan tugas akhir misalkan nah dilihat lagi gimana modelnya Seharusnya kan kalau dialidasinya bagus ya kan berarti testingnya Bagus dong ya kan tugas akhirnya nanti Nah itu kurang lebihnya kayak gitu ya jadi bisa anggap aja ya gampangnya sih Kayak lagi belajar ya ya kan di apa di kampus ya kan nah kan biasanya ada pelajarin dulu materinya baru entar ada PR atau tugas ya baru entar ke tugas akhirnya Misalkan apa ya Nah itu berkaitan sama splitting data tadi ya berarti kalau di machine Learning Kita pengin tahu kinerja model kita itu kayak gimana dan kita pengin E evaluasinya itu akurat ya Nah nanti ada istilah lagi under Fitting ya atau apa tuh perfitting under Fitting ya kan Ya nah ini contohnya sebelum masuk ke situ ya ini ada ee apa cara buat splitnya tadi ya Jadi kita tadi sudah tahu bahwa ketika mau splitting data itu bisa Kita pisah ya ada buat training validation dan testing nah biasanya berapa sihentasenya biasanya trainingnya itu harus lebih banyak ya dibandingin sama validasi atau testing agar apa ya agar hasilnya bagus ya Tapi jangan terlalu sedikit juga di testing Kenapa karena kalau testingnya terlalu sedikit nanti kita kurang tahu ya atau apa ya istilahnya eh kita bisa Nanti evaluasinya kayak bias lah ya Contohnya kayak tadi kayak tadi aja ya pas ujian nih dosennya ngasih cuman satu soal ya kan berarti kan ada informas misal belajar matematika tapi cuman soalnya keluar statistika aja Ya kan Padahal di dalam matematika Mungkin ada lagi cabang-cabang lain ya kan nah Gu pas kita evaluasi hasilnya bagus ya kan karena cuman keluar statistika doang yang keluar kita enggak tahu nih ketika tentang kalkulus gimana studennya tadi paham atau enggak G makanya di testing ini juga jangan terlalu sedikit nah biasanya gimana ya kan presentasenya biasanya inientasinya ini ya 80 10 10 atau mungkin 70 15 14 atau 60 2020 itu waktu spitting data ya oke Nah nanti ya ada lagi evaluasi nah ini berkatan sama tadi underfitting ya dan juga overfit ini ada istilah underfeitting dan overfitting jadi evaluasi modal ini buat apa buat mengukur kinerja ya dari modelnya tadi atau dalam kasus studen tadi ya kan biar tahu nih studen nya ini ee nilainya bagus atau enggak sudahah paham atau belum ya oke nah itu evaluasi model di dalam evaluasi model ada istilah underfitting sama overfitting underfitting ini gampangnya sih Eh kalian bayangin aja kayak ada studen lagi belajar ya tapi belajarnya itu masih kurang ya misalkan di dalam matematika ada statistika kalkulus ya Atau mungkin ya anggap aja kayak pembagian pengurangan penjumlahan perkalian ya kan tapi studennya cuman belajar penjumlahan aja Misalkan Nah kalau misalkan teman-teman di sini hanya belajar ya tentang penjumlahan aja ya oh sor ya di sini di rumah Saya lagi di tempat singal saya lagi ada ini e penyprotan jadi agak berisik penyprotan nyamuk ya Nah di sini untuk evaluasinya mis tadi ada stud ya studennya belajarnya matematika ya matematikan cuman penjumlahan Seharusnya kan ada pengurangan pembagian perkalian ya kan pas Ujian nanti atau mungkin pas pekerjaan rumahnya misalkan ya kanilnya bakal jelek ya kan atau erornyatinggi ya Nah itu istilah underfting jadi underfitting ini adalah modelnya kurang belajar yang mengakibatkan nilai dariaradi atnya mis itutingi kalau akurasinya berarti rendah ya Nah itu berkaitan samauasi model ada lagi yang Nah kalau overfitting di sini itu kasusnya adalah misalkan nih teman-teman apa mempelajari data ya atau mempelajari kasus matematika tadi tapi yang dipelajari adalah mengingat soal bukan mempelajari pola dari soalnyagat ya mengingat soal bukanelajari dari soal yang dipelajarinya tadi ituting jadi ketika kita ingat soal berarti kan bagusnya kalau soalnya sama peris kan dia bisa jawab tapi ketika soalnya dibedain Ya nilainya misal ada dia belajar nih 2 + 2 = 4 misalkan Eh tapi pas diujian munculnya 2 misalkan nah dia gak bisa jawab ya karena dia cuman mengingat soal soal bahwa 2+ 24 tapi ketika 2 Dit 7 diaak gak tahu jawabannya berapa Nah ituting kayak G ya jadi dia hanya bagus diennya aja bagus ya kan dan ketika datanya sama peris ketika testing ya testing itu kan menggunakan data yang bed ya kalau peng Apa hasil evaluasinya bagus itu mesti datanya itu beda dari dari data tren yang ditining yang dilatih ya jadi dibedain nih nilainya dibedain Nah bisa gakudnya tadi Oh kalau misalkan bisa berarti nanti dia good Fit ya jadi training dan hasil testingnya bagus itu tapi ada juga tadi trainingnya Bagus pasestingnya jelek karena dia Cum menging soal do ketika dikasilai yang ber yanyaahahnya ting di mana waktu training dan testingnya jelek ada juga overting di trainingnya bagus tapi pasti testingnya jelek ya Ada juga yang goodit ya keduduanya bagus misalkan atau tentang evaluasi model ya nah gimana caranya buat mencegah overfitting Ya kan ketika kita bikin ma model ini sebenarnya ada banyak faktor ya yangaktinting ada yang mungkin karena modelnya terlalu kompleks ya Atau dia enggak mampu menggeneralisasi dengan baik terhadap data baru ya jadi dia hanya menger apa menggeneralisasi dengan baik di data trennya aja tapi di data baru dia enggak bisa ya atau perpiting Ya ada juga terlalu banyak fitur ya kalau misalnya kita punya fitur ada 50 semuanya digunain Nah itu overfitting biasanya nanti padahal kan bisa jadi ada fitur-fitur yang enggak berguna ya kan yang enggak kita butuhin nanti pas ditesting ya hasilnya jelek pas ditrainingnya Bagus testingnya jelek ya atau efek dari terlalu banyak fitur tadi atau mungkin nanti kurang regularisasi ya Nah ini biasanya kalau misalkan teman-teman menggunakan kasus-kasus seperti kayak eh untuk Logistic reg ada regularisasi atau diural apa di neural pun juga sebenarnya ada regularisasinya ya itu bisa mencegah overfitting Ya tapi kalau misalkan enggak kita kasih Nah mungkin modelnya akan cenderung overfitting solusinya ya ini ya bisa kurangin kompleksitas dari modelnya tadi ya kan atau menggunakan penalti ya atau regularisasi ya terhadap modelnya contohnya misalnya ada lo dan R ya ya itu ini istilah ini ya dalam eh algoritmanya nanti ya terutama kasus-kasus seperti kayak Logistic regation ada reg apa ada regularisasinya dia ya terus bisa juga nanti ada melakukan Cross validation atau validasi silang n itu bisa juga menggunakan fitur-fitur yang relevan itu pun juga bisa mencegah overpitting ya Atau melakukan dimensional reduction ya pakai pca ya atau menggunakan early stopping itu pun juga bisa mencegah overfeitting Nah itu eh solusinya ya yang umumnya di digunakan untuk mencegah powerting Kalau underfit gimana ya berarti modelnya terlalu sederhana kurang kompleksitasnya masih kurang ya kan biasanya inih model-model kayak linearation ya kan Terus kita gunain untuk kasus eh data-data yang non linear misalkan nah ini biasanya underfit ya linear regation tapi buat eh memprediksi data yang nonlinear ya ini bisa underfit nanti ya Selain itu ada lagi mungkin kurangnya fitur yang relevan ya kan Atau mungkin sampel datanya terlalu sedikit ya itu juga ngakibatin underfit ya atau terlalu banyak noise outer Ya itu bisa jugaakitin underitting over regularisasi ya kan terlalu banyak regularisasinya itu juga ngakitin underusinya tinggal kebalikannya aja ya kan kita mencoba meningkatkan kompleksitas dari modelnya tadi terus juga menambahkan fitur-fitur yang lebih relevan ya bisa juga ningkatin sampel datanya ya oke Atau mungkin melakukan hyper parameter tuning ya mengurangi no ataunya Nah itu bisa mengah underting Itu sekilas ya tentang pemodelan machine learning Nah mungkin di sini saya mau kasih kalian contoh DII saya ada Pro ya tentang CN ini ini berkata sama Deep learning Ya ini contoh aja jadi ketika teman-teman pengin membikin suatu Project teman-teman bisa bikin dulu nih backgroundnya apa ya kan latar belakangnya misalkan terus objektifnya ya Itu buat apa misalkan di sini kita PIN prediksi kasus eh pneumonia Ya kan ya agar bisa kita apa ya mendiagnosis dengan lebih cepat ya dibandingin kalau misalkan kita hanya menggunakan mata secara langsung itu ya anggap aja itu ya tujuannya Nah nanti kita bisa bikin nih datanya dari mana misalnya di sini kita ada dari kle di sini saya menggunakan eh tensor flow ya untuk pemodelannya tadi ya Jadi kalian load dulu datanya ya setelah dilad datanya nanti dilihat nih Ada berapa jumlah datanya tersebut misalkan yang pneumonia ya gambar yang tergolang pneumonia ini ada berapa misal ada 3000an ya yang normal ini ada 1000an validasinya ada berapa Oh di sini misalkan di dataaset yang kalian dapat udah ada validasi nih ya tapi sedikit ya Nah kita enggak mau terlalu sedikit validasinya kita mau tambahin lagiah misalkan nah Berarti mesti kalian proses ulang nih ya kan biar nanti validasinya itu nambah entah itu Mungkin dari trennya ini sebagian Kita masukin ke validasi Ya itu bisa kayak gitu bisa juga nanti kita analisis dulu dari gambarnya Ukurannya berapa Kenapa mesti analisis ukuran karena Terkadang ada gambar-gambar yang ukurannya kekecilan efeknya apa efeknya ketika ada gambar yang ukurannya kecil maka nanti pola dari gambarnya itu ya kurang bagus atau mungkin kita kurang dapat informasi dari gambarnya tersebut Ya itu bisa kayak gitu ya untuk analisisnya ya dari gambarnya tadi ini contoh aja Ya saya di sini coba deteksi size nya gimana ya kan dimensinya Seperti apa terus nanti saya coba llore misalnya Saya cek dulu nih distribusinya gimana kok ternyata di sini kebanyakan pumonia ya dibanding sama yang normal terus dicek lagi nih ukurannya Ya gimana nah minimumnya ini ada yang sampai l ya sizennya terus saya cek lagi nih yang 55 tadi yang ukuran kecil tu siapa aja ya saya cek lagi Oh Ternyata di sini ada beberapa gambar yang dia itu ukurannya kecil nah ini yang kayak kepotong ya di sini dia nah Berarti kan ini kan yang kepotong-potong kayak gini kan bisa aja nanti mungkin salah prediksi ya kan gak kelihatan nih polanya Apakah dia penomia atau normal ya kan Siapa tahu entar ada area yang menandakan dia pumonia tapi kepotong ya Kanah itu kan jadi dianggap sebagai normal nanti ya sama e pemodelannya nanti ya Ini buat ngcekannya aja Oh di sini ketahuan nih Ada gambar-gambar yang siz-nya itu eh kekecilannya ukurannya baru entar di pressing pressing ya ini kita ngakalin ya gambarnya entah itu mungkin kita ubah dulu atau kita decode ya dari file gps-nya biar jadinya ke dalam bentuk array ya untuk mendapatin nilai dari pikelnya terus kita normalisasi scalingin biar jadinya rentangnya antara 0 sampai S ya kan asi baru nanti setelah di di sini ya kita bisa kang modnyaak mau berapa di sini ada 128 yang di bagian lernya ada 128 neuron arsitekturnya dibuat ya kan Terus dilakukan pengecekan evaluasi modelnya gimana ini nilai l at erornya ya akurasinya berapa Nah katakan DII misalkan ya kalau kita li Dar akuras di kurangbinyaenda 25 ya validasinya terus kita cek lagi ya kan modelnya gimana ya kan mungkin pengin melakukan classification report ya atau confusion Matrix ya buat melihat ya total yang terprediksi benarnya yang salahnya berapa ya kan nahti bisa dari confusion Matrix ya oke dievaluasi lagi misalnya kita ada beberapa teknik ya ada yang tadi pakai ak ada juga mungkakakah kita bandingh modnya ya kan yang mana yang terbagus ada lagi mungkin pakaim ya tambah lagi parameter yang ada di modelnya ya kan ada lagi pakai transfer learning Ya mungk kalau tem-an Apakah pakai vgj atau mungkin pakai Exception Inception itu bisa Nah kalau di model yang saya buat ini yang terbaiknya itu pakai VG ya pakai VG 16 di mana dapat evaluasinya adalah kisaran 97 kalau dari Sis akorasi Ya kalau dari recallnya 98 ya Sedangkan untuk eh apa ya recnya 98 benar ya precisionnya juga 98 di sini ini oke nah kalau buat spesificity-nya ya ini kisaran 96 ya ini udah bisa kita titirkan modelnya udah cukup baik ya sudah Baguslah ya Nah nanti kalau udah dapat kalian tahu nih Oh ternyata vgj Ya udah berarti vgj-nya itu yang di-save jadi entar ada save model Setelah kalian save kalian bisa deploy nanti ya buat ee ke aplikasinya kalau ini buat testing aja ya di sini buat testing misalnya saya coba model yang sudah disap diilad Kembali terus diprediksi gambarnya nah gimana nih ya terpediksi apa nih gambarnya ini oh misalkan penomia ini apa ini normal Nah nanti kalau pengin bikin aplikasi ini contoh aja saya sudah bikin aplikasi pakai stream ya ada hepage-nya terus di sini ada buat prediksinya ini ada up gambar nih di sini saya coba upload nih gambarnya saya sudah ada di ee lokal saya ya saya masukin ada gambar penumonia ya misalkan di sini saya coba predik Nah misalkan hasil prediksinya Benar nih ya kan penumonia ya Nah di sini saya tambahin lagi ada kondisi lagi Jadi kalau misalkan Dia penomunia mungkin di aplikasinya kita yang kita buat ya Kita kasih kayak ee semacam ID Apa gejalanya apa aja L gitu ya kalau misalnya terkena penumonia mungkin kayak batuk sesak napas ya sakit dada demam panas dingin ya kan Terus rekomendasinya apa ya kan agar enggak terlalu parah ya mungkin istirahat minumannya mesti apa aja ya kan makanannya Seperti apa ya kan dan lain sebagainya Itu kalau terprediksi sebagai pneumonia tapi kalau misalkan di sini dia itu normal ya oh normalnya saya enggak ada ya misalkan di sini saya ada searching lah dari internet ya gambarnya ini bisa juga ya pakai link saya tinggal copy image address-nya tinggal saya masukin di sini urlnya apa dienter dia langsung kebaca gambarnya terus bisa di prediksi Nah kalau normal dia gak keluar apa-apa ya gak keluar S tapi misalkan lagi saya mau searching lagi di internet nih ada gambar yang pumonia kan Ini bisa juga pakainya itu kalau kalian mau ngembangin sampai ke aplikasi Ya itu bisa sebenarnya cuman ya ini kalau pengin sampai dalam ini ya ini mungkin kalau kalian belajar ya benar-benar belajar itu butuh waktu ya bisa 3 bulanan lah ya 3 bulanan sampai ke pengembangan aplikasinya tadi oke ya Itu sekilas saja ya tentang eh berkaitan sama machine learning Jadi kalian nanti setelah udah bikin projek pemodelan Ma learning itu bisa di deployment Ya dibikin aplikasi atau bahkan Nanti Mungkin kalian bisa coba sampai ke aplikasi mobile ya Mobile application itu bisa juga sebenarnya oke eh Paling itu aja ya dari saya mungkin teman-teman di sini ada yang mau bertanya Oke terima kasih Pak Irfan atas pemaparan materinya cukup bermanfaat sangat bermanfaat ya untuk teman-teman dalam pengembangan model machine learning ataupun Deep learning apalagi Eh sekarang area ei ini sangat menarik gitu sangat berkembang pesar dan teman-teman dapat Insight baru nih terkait dengan tahapan pengembangan modelnya Seperti apa dari awal mungkin ada yang mau ditanyain dulu teman-teman terkait sesi ini mungpung masih ada Pak Irfan di sini atau masih bingung mau tanya apa mungkin saya coba kasih pertanyaan pembuka deh ee jadi Pak Sampaikan ada beberapa jenis model ya Ada modelarning ada mod mungkin teman-teman masih bingung nih pak kalau misalnya kitaentu algorit yang pas untuk dat ini kira-kira Pak algorit Apa ya atau untuk seperti itu apakah ada Tips atau triknya Pak dalamentuk metode algoritma yang kita gunakan nanyaungkik peranya jadi uan algoritmanya apa nih ya kalau misalkan kita pengin eh mengolah data ya kan kira-kira ada enggak mungkin kasus di mana kita pakai Deep learning atau pakai machine learning yang biasa ya kan gitu nah sebenarnya eh hal yang pertama teman-teman mesti ketahui adalah pattern dari data yang teman-teman dapat itu seperti apa contohnya misalkan kayak tadi kita ada data-data yang linear yang sifatnya linear linear itu kayak gimana misalkan kita mungkin bisa cek dulu korelasinya misalkan ya contohnya misalkan mungkin ada kita prediksi harga harga rumah lah misalkan terus kita punya juga fitur tentang e umur rumah ya kita tahu nih misalkan ketika Harga rumahnya umur rumahnya ya umur rumahnya itu semakin tua berarti Harga rumahnya semakin turun Nah kalau kitating nanti ya kita cek korelasinya miskan oh DII dia ada negaelation jadi ketika umur rumahnya semaka maka harga semakin menurun ya kan Nah itu bisa jadi kita pakai linear atau pemodelan yang linear yang sifatnya linear jadi ada l bisa tapi kalau miskan yang nonar gimana misalkan mungk nanti Bentuknya itu bukan garis tap ada znya mis ya Nah itu biasanya kita pak seperti itu bisa at mungkanti Pak random for ya bisa juga kayu jadi kita tahu duakah dia linear atau noninear itu pertama kedua ya bisa juga nanti terkadang ya kita bingung nih ini lebih cenderung ke linear at nonarkan kitaak tah nahusinya Kalau kemu kayakitu kitaji Coba mandingkan beberapgor ya Mis kita pak ada logis terus ada juga Pak lagi ya kan buat membandingkanakak Bing evaluasi modelnya kira-kira yang kinerjanya yang bagus itu yang mana Nah selain kinerja dari sisi e katakanah ada akurasinya ya akurasinya paling tinggin siapa ya kan bisa juga nanti dari sisi memori nah ini Jadi pertimbangan juga nih memori sama kecepatan waktu training ya Ada algoritma yang misalkan dia hasilnya bagus tapi dia butuh memori yang besar dan trainingnya lama ada jugagoritma yang mungk agak bagus sedikit ya misalkan tapi dia lebih cepat misalkan nah itu jadi pertimbangan juga bisa jadi mungkin kalau teman-teman dikejar deline Ya kan Misalkan nah bikin aja gu yang simpel yang lebih cepat buat di trainingnya tadi training sampai berhari-hari tapi hasilnya jelek atau mungkin e kita belum pasti apakah bagus atau jelek nah itu jadi pertimbangan juga ya kan jadi dari sisi akurasinya lama trainingnya sama memori yang digunakan untuk pengembangan dari aplikasin apa modelnya tadi ya itu jadi pertimbangan ya buat cari tahu nih kira-kira model mana yang terbaik Biasanya sih kalau pemodelan yang lebih kompleks kayak neural Network terus juga random forest itu biasanya memorinya lebih tinggi dibandingin sama pemodelan seperti kayak logistik reg ya kan itu sih yang biasanya jadi pertimbangan berarti lebih dikenali dulu tentang data yang mau kita buat tu Seperti apa ada faktor-faktor lain mungkin e seperti memori atau waktu trainingnya ya Pak ya itu juga perlu dipertimbangkan teman-teman ya mungkin teman-teman kalau misalnya malu untuk Open bisa chat juga kalau misalnya ada yang ditanyakan atau ada yang bingung terkait dengan materi yang disampaikan atau udah paham semua mau bertanya Pak Oke Boleh silakan kalau kalau akurasi yang diterima di industri itu berapa ya pak kira-kira apa misalnya sudah melakukan parameter tuning algoritm sudahah dibandingin tapior akurasinya masih kecil oke nah jadi pertanyaan akurasi yang dipertimbangkan buat Indri Kay gimana miskan akurasinya masih kecil Apakah bisa kita Gun Git ya kan Nah kalau itu ya pertama kita analisis resikonya dulu Jadi kalau misalkan kita punya akurasinya lagi resikonya Gimana kalau misalkan kita terapin buat ke industrinya nanti kalau misalkan dia akurasinya kecil tapi di bidang tersebut Dia memiliki resiko yang besar ya untuk perusahaan sebaiknya jangan digunain modelnya tapi kalau misalkan nih katakanah misalkan kita coba tentang kasus miskan saya peng prediksi tentangakahang ininyaan Atak nah saya punya akurasinya Katakanlah jelek nih ya tapi ya ada tapinya tapi misalkan dari sisi akurasi jelek tapi dari sisi rec Mungkin dia lebih bagus misalkan nah sedangkanrik evaluasi yang pengin kita jadi prioritasnya adalah rec misalkan bukan akurasi Dan dari situ kita kan peng prediksi Nah mungkin perusahaannya punya kebijakan ketika ada pelanggan yang atau terprediksi sebagai maka dia akan meningkatkan kuitas dari tersebut anggap aja ada perusahaan tel misalkan dia akan ningkatin kualitas dari layanan e apa providernya nanti itu kalau ter Nah kalau seandya kita salah prediksi Ya anggap aja adaomer yang dia itu e seharusnya dia gak tapi terpredi salah salah prediksi dari yang Normali ituak masalah karena nanti kebijakan yang diil dia akan meningkatkan performanya tadi jadi kan gak Gak rugi kan perusahaan yang ada nanti malah Untung ya banyak Nanti pelanggan yang bakal beli produknya tadi kalau misalkan kebijakannya tadi ya adalah dia akan ningkatin e layanannya tersebut Ya baik diaen atupun gacen dia tetap akan berusaha ningkatin layanan Nah itu enggak masalah kalau kayak gitu tapi kalau di bidang medis nah ini fatal nih ya kalau di bidang medis sampai salah sedikit aja bisa ngakibatin kematian ya kan Makanya ee kalau di bidang medis itu mesti hati-hati biasanya mungkin kita butuh kisaran 95 lah ya 95% akuransinya misalkan untuk di bidang medis ya dengan pertimbangan mesti ada campur tangan manusia juga ya untuk memastikan lagi nih ya apakah ini itu Udah Ee benar atau enggak ya jadi jangan benar-benar otomatis itu jangan ya takutnya nanti ada beberapa yang salah ya kan ya Jadi intinya lebih ke membantu kita ya nanti kalau misalkan di bidang kesehatan itu bisa membantu kita agar lebih cepat ya buat apa mendeteksi Apakah dia Misalkan terkena penomia atau enggak Jadi tergantung kasusnya ada kasus yang dia itu Sensitif ya kita benar-benar mesti akurat banget ada juga mungkin yang EE kalaupun enggak akurat itu enggak masalah ya Oke Jadi tergantung kasusnya itu maunya ke mana industrinya oke oke apakah cukup menjawab Tadi siapa yang bertanya eh terjawab terjawab oke oke teman-teman lain ada yang ingin ditanyakan lagi mungkin eh Saya sedikit bertanya melanjutkan tadi pertanyaan darima ya Pak jadi kan eh akurasi cukup ee dipertimbangkan terutama di bidang ee di bidang kesehatan ya Pak Nah mungkin ada adakah sedikit tips yang bisa diterapkan saat kita pengembangan model bagaimana meningkatkan akurasi tersebut gitu mungkin sudah diotak-atik Ee datanya terus juga misalnya parameternya Apakah ada teknik lain Pak dalam meningkatkan akurasi model ini Oke sebenarnya kalau buat meningkatkan akurasi dari model pertimbangannya pertama lagi datanya dulu ya karena kualitas data itu mempengaruhi akurasi model walaupun kita udah mencoba nih ee pakai pemodal yang lain terus tambahin hper parameternya ya kan Nah kalau apa kualitas Dar dari datanya itu jelek ya itu tetap bakal cenderung jelek Jadi kita perhatikan dulu kualitas dari datanya terus data yang kita ambil jumlahnya berapa itu juga ada ketentuannya ya biasanya jangan sampai terlalu sedikit Nih misal kita cuma 100 gambar aja misal Kay tadi ya kan terlalu sedikit yang ada nanti malah justru model Kita jelek Kurang belajar ya kan paling Biasanya kalau dalam kasus kayak tadi ya buat klasifikasi gambar itu kita butuh data yang kurang lebihnya mungk e di atas 2000 lah Ya itu salah satu ya jadi dari datanya dulu ya kita lihat kualitas datanya kayak gimana apakah sudahudah bagus atau belum atau mungkin kita kekurangan fitur ya dari datanya itu juga mempengaruh juga misalkan kita cuman prediksi Apakah dia tadi penumia atau enggak Nah mungkin ada fitur lain yang mempengaruhi seseorang terkena penumia entah itu mungkin kayak berat badannya kita butuh informasi itu ya kan bukan hanya sekedar gambar aja ya kan berarti kita bisa tambahin lagi nih oh ini ada fitur lain nih data lain ya bukan cuman gambar aja ya misal data berat badan Terus mungkin tekanan darah dan la sebagain bisa ditah furnya t Nah kalau dari sisi modelnya ya ini biasanya kita melakukan parameruning ya entah itu mungkin kita tambahin kalau di tambah layarnya atururonnya Ya atur lagi bobotnya yaar ada namaler buot bisa kita jugaan ya terus B arsitturnya Ma Kay Gim seensial atau Fal ya itu juga bisa kita atur jadi pertama datanya terus kemudian fiturnya ya itu apa yang mau kita Gun Baru Entar kita bisa fokus ke pemodel tadi Kalau peng ben-ben akurat ya dari sisi modelnya jadi datanya sangat penting dan mempengaruhi hasil imbangkan dari awal sejak mencari datanya ya karena ternyata sangat berpengaruh nih data yang kita pakai ke hasil akhir pemodelannya Oke Mungkin ada yang mau ditanyakan lagi teman-teman saya tunggu beberapa menit lagi Gimana ada yang mau nanya lagi mungkin dari teman-teman di sini kebanyakan apa nih kira-kira it computer Vision kah atau dari jurusan lain ada juga nih yang mungkin Apa jurusan ekonomi atau apa sejauh ini kebanyakan dari computer sains Ya Pak Oh computer Sain dominan di komuter sains berarti Waktu kuliah juga ada diinggung jug l ya berarti tentang pemodelan macharning I ada sedikit intro terkait dengan model machine learning harusnya si mata kuliah mungkin kalau tidak ada saya kasih sat pertanyaan Lagi De pertanyaan terakhir ee untuk tadi kan terkait dengan data ya Pak jadi jumlah data juga mempengaruhi berarti kalau misalnya saat teman-teman coba untuk pemodelan ternyata datanya sangat-sangat tidak seimbang berarti Apakah itu harus dilakukan eh proses metode untuk penyeimbangan data atau kita ganti datanya gitu baternya seperti apa sih Pak kalau kayak gitu oke nah itu juga jadi tantangan besar ya biasanya kalau misalkan kasus data ada yang imbalance ya enggak seimbang misalkan mungkin ada kebanyakan dia itu yang normal tapi kita pengin prediksi tentang penyakit penomia tadi ya kan tapi kebanyakan normal ya kan Nah kalau misalnya kasus enggak seimbang ya ini ada beberapa solusi ya yang pertama kita bisa menambahkan jumlah datanya di kelas yang minoritasnya itu siapa ya misalkan kita tahu nih bahwa di kelas mayoritasnya itu yang normal sedangkan yang minoritasnya itu yang pneumonia Nah berarti kita mesti nambahin yang kelas yang minoritasnya tadi ya Atau ada lagi mungkin kalau di dalam kasus e kalauar ya itu bisa ya terusanti dari hasilasya Ya itu bisa kita gunik gambarui gambarudah kitaisaa cara se ituanya kalau di data tabular ya itu kita bisa pakai data sintetik ya ada teknik yang namanya eh overampling ada juga undamping ya kalauamping kita menambahkan kelas yang minoritasnya ya dengan datak ya kalau unding kita kebalikannya yang mengurangi yang kelas mayoritasnya kita kurang ada juga kombinasi ya yang kelas mayoritasnya sebagiannya kita kurang Terus yang kel minoritasnya kita tambah bisa dilakan dengan kayak gitu ada juga sebenarnya algoritma-algoritma yang dia itu kita bisa ngatur pembobotan ya kayak di Logistic regation itu ada ada caranya juga ya buat menangani imbalance data dengan pengaturan pembobotannya tadi itu bisa juga ya jadi mulai dari mungkin kita melakukan overamping atau undamping bisa juga mungkin dari sisi algoritmanya kita mengatur pembobotan dari eh algoritmanya tadi dan itu biasanya Emang mesti harus ya masih harus harus kita tanganin kalau kasus-kasusnya itu dia imbalance karena dia nanti kalau misalkan inbalance evaluasi model kita biasanya akan bias ya akurasinya bagus tapi pas kita cek recnya W recnya jelek nih misalkan bisa kita coba tanganin buat datanya tadi Berarti enggak tiba-tiba langsung diganti aja ya Pak ternyata ada beberapa teknik yang bisa teman-teman pakai jug mengatasi data ini Oke mungkin kita tunggu S sampai 2 menit lagi mungkin siapa tahu ada teman-teman lain yang tanya jadi nanti baru kita masuk ke Sesi selanjutnya ini di ada oke Ada pertanyaan dari Johanes jadi saya punya kasus waktu mengerjakan tugas computer Vision memprediksi gambar orang telah saya kerjakan hasil akurasi yang keluar kecil kisaran 30 sampai 40% Padahal kalau dari gambar yang dilihat menurut saya akurasinya 90% Bagaimana cara menkatkan akurasi tersebut untuk klasifikasi gambar Oh prediksi gambar prediksi gambar Oke jadi ini buatuter Vision untuk memprediksi gambar orang ya akurasinya yang keluar kecil ya 30 sampai 40% tapi dilihat dari sisi gambarnya itu bagus Nah kalau buat data orang ya Nah Biasanya kalau di data manusia itu tergant yaakyak klasifikasi aja ya Atau mungkin kita pengin lebihnya ke object detection kan kalau object detection kita pengin apa ya mendeteksi objek ya Misalnya kita ada nih ada beberapa orang ya kan dia tahu nih Oh di sini objeknya ada dua atau tig ya atau empat ya itu juga kan bisanya ada kayak gitu ya kalau di sekedar hanya klasifikasi Apakah dia manusia ya apakah dia orang atau binatang ya kan nah itu kalau misalkan kayak gitu biasanya kita buat ningkatin akurasinya Ya itu bisa kita lakukan salah satunya tadi amentasi itu bisa juga buat menambahkan variasi dari gambarnya contohnya misalkan anggap aja kayak kalian ada gambar orang tapi posisinya sama peris semuanya Lagi berdiri semua gak ada yang lagi duduk Gak ada yang lagi mungkin lagi apa ya lagi posis ke kiri ke kanan ya kan Nah itu bisa berpengaruh nanti kalau misalkan kalian cuman ada gambar tapi posisinya sama semua jadi ketika ada posisinya diubah itu bisa salah prediksi atau akurasinya menurun nanti makanya nanti di dat latihnya usahakan variasi dari gambar orangnya tadi manus ada ada lag ada ke kiri ke kanan ya ketika kitaed ketika ada gambar yang berbedadi bisa akah ke kebanak kas jadi kita variasihangat kasnyaau gambar Oke untuk jti apakah terjawab pertanyaannya jadi bisa Open Mic mungkin atau bisa respon lagi di chat atau masih ada yang mau ditanyakan Eh kalau kayak kasus objekction itu kayak gimana Oke kalauas di bagian yang object detection sih object detection Oke kalau object detection sebenarnya kan dasarnya dia pakai klasifikasi juga ya kan kalau buat pelatihannya ya kan Jadi kita mesti punya dulu sekumpulan gambar ya kan kalau misalnya kita pengin bikin dari awal dari dasar banget ya Kita mesti kumpulin dulu e berbagai macam gambar entah itu mungkin ada orang di Asia ya dengan berbagai macam etnis Ya itu bisa juga ya Siapa tahu Mungkin ada yang beda warna kulit dan lain sebagainya t beda juga Hasilnya ya kan kita enggak mau kayak gitu Ya kan Makanya mesti ada beda e variasi dari gambarnya tadi Nah kalau di dalam object detection misalkan Mungkin kalian pakai algoritmanya apa nih Apakah hanya bikin dari awal pakai CNN atau mungkin kalian bisa juga nanti mungkin pakai yolo yolo kan ada yolo yang versi terbaru sekarang k versi berapa 10 atau berapa gitu Nti bisa juga pakai yolo tadi ya atau pakai PR model lah ya yang udah dilatih karena di PR model itu biasanya dia sudahudah dilatih dengan Sekumpulan data yang sudah besar ya dan dia sudah punya banyak informasi nih ya Dari transparingnya tadi itu bisa juga pakai transfer ni oke bagaimana e ada terjawab Pak terima kasih Oke terima kasih mungkin teman-teman yang lain ada yang ingin ditanyakan lagi kita tunggu beberapa menit ya S sampai 2 menit ya Pak Irwan sambil tunggu teman-teman Mungkin ada yang ingin ditanyakan kembali ada lagi mungkin yang mau ditanyain sepertinya udah cukup paham semua Pak teman-teman sudah mulai tergambar kira-kira bagaimana tahapan pemodelan eh data itu seperti apa Oke mungkin ini di layar teman-teman ada link evaluasi yang teman-teman harus isikan Jangan lupa untuk diisikan link evaluasi sesi ini ya mungkin kalau sudah tidak ada yang ditanyakan lagi kita bisa masuk ke Sesi terakhir dari sesi hari ini yaitu sesi dokumentasi mungkin teman-teman semua bisa diaktifkan ee kameranya kan ada sesi foto bersama ee Maaf k Kak kamera saya rusak ini siapa yang rusak kameranya eh Patrick Oh Patrick ya oke enggak apa-apa berarti teman-teman yang lain aman ya Kameranya Oke saya mulai ya ini ada beberapa page jadi oh oke sebentar oke saya tunggu oke yang kameranya rusak enggak apa-apa yang lain bisa onc Oke saya mulai ya ini ditahan ya Ada beberapa page 1 2 3 Ini page 1 lalu page 2 1 2 3 oke page 3 1 2 3 page 4 1 2 3 page terakhir page 5 1 2 3 oke oke terima kasih teman-teman terima kasih Pak untuk sesi hari ini sangat bermanfaat sekali untuk menambah pengetahuan baru dan ins baru dari teman-teman Semoga bisa membantu teman-teman dalam menyelesaikan permasalahanit dengan pengembangan mod juga bisa membantu sehingga tidak terulang kesalahan-kesalahan yang mungkin sering terjadi dalam pengembangan pemodelan data ini Oke terima kasih teman-teman untuk sesi Hari ini saya izin akhiri sesi hari ini Terima kasih banyak Pak Irfan Selamat siang Makasih Bu selamat siang semuanya Makasih Bu Terima kasih pakih Bu Makasih Bu Terima kasih Bu terima kasih Pak Terima kasih Bu Makasih Bu makasih Pak Makasih buasih