1. Apa Machine Learning ?
Machine Learning adalah cabang dari AI yang membuat komputer bisa belajar dari data. Dengan mengenali pola dari data latihan, komputer dapat memprediksi atau mengambil keputusan pada data baru tanpa harus diprogram dengan aturan yang rumit.
Machine Learning adalah teknologi inti yang mendukung hampir semua AI modern, dari peramalan hingga AI generatif.
Premis utama dari machine learning (ML) adalah bahwa jika Anda mengoptimalkan kinerja sebuah model pada kumpulan tugas yang cukup menyerupai permasalahan dunia nyata yang akan digunakan—melalui sebuah proses yang disebut pelatihan model—maka model tersebut dapat membuat prediksi yang akurat pada data baru yang ditemuinya dalam kasus penggunaan akhirnya.
Proses pelatihan itu sendiri hanyalah sarana menuju tujuan: generalisasi, yaitu penerjemahan dari kinerja yang kuat pada data pelatihan menjadi hasil yang bermanfaat dalam skenario dunia nyata, adalah tujuan mendasar dari machine learning. Pada intinya, model yang telah dilatih menerapkan pola yang dipelajarinya dari data pelatihan untuk menyimpulkan keluaran yang benar pada sebuah tugas di dunia nyata; oleh karena itu, penerapan sebuah model AI disebut inferensi AI.
Deep learning adalah bagian dari machine learning yang menggunakan jaringan saraf tiruan besar—atau lebih tepatnya, jaringan yang “dalam” (deep neural networks). Dalam beberapa dekade terakhir, deep learning telah menjadi arsitektur model AI paling canggih yang digunakan hampir di semua bidang. Berbeda dengan algoritma tradisional di machine learning yang dirancang secara eksplisit, deep learning bekerja dengan jaringan operasi matematis yang terdistribusi, sehingga mampu mempelajari pola-pola rumit dari data yang sangat kompleks. Karena membutuhkan jumlah data yang sangat besar dan daya komputasi yang tinggi, perkembangan deep learning berjalan seiring dengan pentingnya “big data” dan penggunaan GPU (graphics processing units).
Bidang machine learning juga sangat erat kaitannya dengan data science. Bisa dibilang, machine learning adalah kumpulan algoritma dan teknik yang digunakan untuk mengotomatisasi analisis data, dan yang lebih penting lagi, memanfaatkan hasil analisis tersebut untuk menjalankan tugas tertentu secara otomatis.
Istilah machine learning (meskipun bukan konsep dasarnya) sering dikaitkan dengan artikel Arthur L. Samuel pada tahun 1959 di IBM Journal berjudul “Some Studies in Machine Learning Using the Game of Checkers.” Dalam pendahuluannya, Samuel merangkum tujuan ideal dari machine learning: “sebuah komputer dapat diprogram sehingga ia belajar bermain permainan dam (checkers) lebih baik daripada orang yang menulis programnya.”
2. Cara Kerja Machine Learning
Machine learning bekerja dengan logika matematika. Karena itu, setiap karakteristik penting (atau disebut juga features) dari sebuah data harus dinyatakan dalam bentuk angka, supaya data tersebut bisa dimasukkan ke dalam algoritma matematika yang akan “belajar” memetakan input tertentu menjadi output yang diinginkan.
Dalam machine learning, data biasanya direpresentasikan dalam bentuk vektor, yaitu daftar angka di mana setiap elemen (atau dimensi) mewakili nilai numerik dari sebuah feature. Untuk jenis data yang memang berbentuk angka, seperti data keuangan atau koordinat geografis, proses ini cukup sederhana. Namun, untuk data lain seperti teks, gambar, hubungan di media sosial, atau perilaku pengguna aplikasi, yang tidak berbentuk angka secara alami, dibutuhkan rekayasa fitur (feature engineering) agar bisa diubah menjadi bentuk yang dapat diproses oleh algoritma ML.
Proses (sering kali manual) untuk menentukan aspek mana dari data yang dipakai dalam algoritma disebut feature selection. Sementara itu, feature extraction adalah teknik untuk menyaring data agar hanya menyisakan dimensi yang paling relevan dan bermakna. Keduanya adalah bagian dari feature engineering, yaitu bidang yang berfokus pada pengolahan data mentah supaya siap digunakan dalam machine learning.
Salah satu perbedaan penting dari deep learning adalah ia biasanya langsung bekerja pada data mentah, dan secara otomatis melakukan banyak proses feature engineering—setidaknya pada tahap feature extraction. Hal ini membuat deep learning lebih mudah dikembangkan dalam skala besar, meskipun sering kali hasilnya lebih sulit dijelaskan dibandingkan machine learning tradisional.
Contoh :
1. Machine Learning Tradisional
Bayangkan kamu ingin memprediksi apakah besok hujan atau tidak.
Data mentah: suhu udara, kelembapan, kecepatan angin, tekanan udara, pola awan, dll.
Feature engineering: kamu (sebagai ilmuwan data) memilih data mana yang relevan. Misalnya, kelembapan dan tekanan udara penting → dipilih. Data lain, seperti warna mobil di jalan, tentu tidak relevan → dibuang.
Feature selection: dari semua data relevan, kamu pilih yang paling berpengaruh, misalnya kelembapan tinggi + tekanan rendah = kemungkinan besar hujan.
Feature extraction: mengubah data kompleks menjadi lebih sederhana, misalnya dari "kecepatan angin per menit" dijadikan "kategori: rendah, sedang, tinggi".
Hasilnya → model bisa memprediksi apakah besok hujan, karena sudah diberi fitur-fitur yang dipilih dan diolah oleh manusia.
2. Deep Learning
Di sini sistem bekerja lebih otomatis.
Alih-alih kita yang memilih dan mengolah fitur, deep learning langsung diberi data mentah dalam jumlah besar:
Suhu tiap jam
Pola awan dari citra satelit
Kelembapan udara
Perubahan angin
Data historis cuaca dari bertahun-tahun
Model deep learning akan sendiri menemukan pola tersembunyi: misalnya, hubungan antara bentuk awan tertentu di citra satelit + pola suhu + arah angin tertentu = kemungkinan hujan lebat.
Hasilnya → lebih akurat untuk skala besar, tapi kita sering kesulitan menjelaskan “kenapa model bilang hujan.” Itu seperti ramalan yang jitu, tapi alasannya sulit dijabarkan dengan sederhana.
👉 Jadi perbedaannya:
Machine learning tradisional = manusia memilih faktor cuaca yang penting → lalu model belajar.
Deep learning = model sendiri mencari pola dari data cuaca mentah yang sangat besar → tanpa banyak campur tangan manusia.
3. Type Machine Learning
Semua metode machine learning dapat dikategorikan ke dalam salah satu dari tiga paradigma pembelajaran utama: supervised learning, unsupervised learning, atau reinforcement learning, tergantung pada tujuan pelatihannya, dan sering kali juga pada jenis data latih yang digunakan.
Supervised learning melatih model untuk memprediksi keluaran yang “benar” dari suatu masukan. Paradigma ini digunakan untuk tugas-tugas yang membutuhkan ketepatan terhadap ground truth (kebenaran acuan), seperti klasifikasi atau regresi.
Unsupervised learning melatih model untuk menemukan pola, keterkaitan, dan hubungan alami dalam data. Berbeda dengan supervised learning, pendekatan ini tidak melibatkan ground truth eksternal untuk dibandingkan dengan hasilnya.
Reinforcement learning (RL) melatih model untuk memahami lingkungannya dan memilih tindakan yang menghasilkan “hadiah” (reward) terbesar. Dalam RL tidak ada satu kebenaran mutlak, tetapi ada tindakan yang dianggap “baik”, “buruk”, atau “netral”.
Dalam praktiknya, proses pelatihan model sering kali menggunakan pendekatan campuran dari lebih dari satu paradigma pembelajaran. Misalnya, unsupervised learning sering digunakan untuk memproses data sebelum dipakai dalam supervised learning atau reinforcement learning. Large Language Models (LLMs) biasanya melalui tahap awal pelatihan (pre-training) dan penyempurnaan (fine-tuning) dengan variasi supervised learning, lalu disempurnakan lagi menggunakan teknik RL seperti Reinforcement Learning from Human Feedback (RLHF).
Selain itu, ada juga pendekatan berbeda tapi mirip, yaitu ensemble learning, yang menggabungkan hasil dari beberapa algoritma sekaligus.
Contoh :
1. Supervised Learning
👉 Ibaratnya seperti belajar dari guru.
Model dilatih dengan data cuaca masa lalu yang sudah ada label kebenarannya.
Misalnya: suhu 30°C, kelembapan 80%, tekanan udara rendah → hasil: hujan.
suhu 34°C, kelembapan 40%, langit cerah → hasil: tidak hujan.
Model belajar hubungan antara kondisi cuaca (input) dan hasil yang benar (output).
Contoh nyata: memprediksi besok hujan atau tidak berdasarkan data historis yang sudah diketahui hasilnya.
2. Unsupervised Learning
👉 Ibaratnya seperti belajar sendiri tanpa guru.
Data cuaca diberikan tanpa label hasil (hujan/tidak hujan tidak diberitahu).
Model mencoba mencari pola sendiri.
Misalnya, model menemukan ada “kelompok” data:
Kelompok A → suhu rendah + kelembapan tinggi → biasanya hujan.
Kelompok B → suhu tinggi + kelembapan rendah → biasanya cerah.
Contoh nyata: mengelompokkan jenis-jenis pola cuaca (misalnya “cuaca tropis lembap” vs “cuaca kering panas”) tanpa diberi label secara eksplisit.
3. Reinforcement Learning (RL)
👉 Ibaratnya seperti belajar dari pengalaman & hadiah.
Model berinteraksi dengan “lingkungan” (misalnya simulasi prakiraan cuaca).
Setiap prediksi diberi reward (jika benar) atau penalti (jika salah).
Lama-kelamaan, model belajar memilih strategi yang paling sering menghasilkan prediksi benar.
Contoh nyata: sistem prakiraan cuaca yang terus menyesuaikan prediksinya dengan data real-time (satelit, radar, sensor cuaca), dan “belajar” memperbaiki akurasi karena setiap ramalan akan dinilai benar/salah berdasarkan kejadian sebenarnya.
👉 Jadi singkatnya:
Supervised: Belajar dari data cuaca yang sudah ada jawabannya.
Unsupervised: Mencari pola cuaca sendiri tanpa tahu jawabannya.
RL: Belajar lewat percobaan-pengalaman, mendapat “hadiah” saat prediksi cuaca benar.
4. Deep learning
Deep learning menggunakan jaringan saraf tiruan (artificial neural networks) dengan banyak lapisan—itulah sebabnya disebut “deep”—berbeda dengan algoritma yang dirancang secara eksplisit dalam machine learning tradisional. Walaupun jaringan saraf sudah diperkenalkan sejak awal sejarah machine learning, baru pada akhir 2000-an hingga awal 2010-an (dengan bantuan kemajuan teknologi GPU) metode ini menjadi dominan di sebagian besar bidang AI.
Terinspirasi secara longgar dari cara kerja otak manusia, jaringan saraf terdiri dari lapisan-lapisan “neuron” (atau node) yang saling terhubung. Setiap neuron melakukan operasi matematisnya sendiri (disebut fungsi aktivasi). Hasil keluaran dari satu neuron akan menjadi masukan bagi neuron-neuron di lapisan berikutnya, dan proses ini berlanjut hingga lapisan terakhir, di mana keluaran akhir jaringan dihitung.
Hal yang penting adalah: fungsi aktivasi di setiap neuron bersifat non-linear, sehingga jaringan saraf mampu memodelkan pola dan hubungan yang kompleks.
Contoh :
Bayangkan seperti proses tanya-jawab berlapis
Input (data cuaca mentah)
Suhu udara: 30°C
Kelembapan: 85%
Tekanan udara: rendah
Awan: tebal
Data ini masuk ke lapisan pertama jaringan saraf.
Lapisan pertama (layer 1 – filter dasar)
“Apakah suhu cukup tinggi?” → ya
“Apakah kelembapan di atas rata-rata?” → ya
“Apakah tekanan rendah?” → ya
Jawaban ini diteruskan ke lapisan berikutnya.
Lapisan kedua (layer 2 – gabungan pola)
Menggabungkan jawaban tadi menjadi pola:
Suhu tinggi + kelembapan tinggi + tekanan rendah = kondisi rawan hujan.
Output lapisan ini dikirim ke lapisan berikutnya.
Lapisan terakhir (output layer)
Sistem menyimpulkan: “Probabilitas hujan = 90%”.
🔹 Kenapa penting fungsi aktivasi (non-linear)?
Kalau setiap neuron hanya bekerja linear (seperti penjumlahan biasa), model hanya bisa melihat hubungan sederhana.
Tapi karena non-linear, jaringan bisa menangkap pola rumit, misalnya:
Hujan biasanya turun kalau kelembapan tinggi dan tekanan rendah, kecuali kalau ada angin kencang dari arah tertentu.
Itulah mengapa deep learning bisa jauh lebih akurat dalam memodelkan cuaca dibanding metode sederhana.
👉 Singkatnya: jaringan saraf dalam prakiraan cuaca bekerja seperti tim analis berlapis. Setiap lapisan menyaring informasi cuaca, menemukan pola, lalu melaporkannya ke lapisan berikutnya sampai akhirnya menghasilkan prediksi hujan atau cerah.
5. Kasus Penggunaan Machine Learning
Sebagian besar aplikasi machine learning masuk ke dalam satu atau lebih kategori berikut, yang umumnya dibedakan berdasarkan kasus penggunaan dan jenis data yang diproses.
🔹 Computer Vision
Computer vision adalah cabang AI yang berfokus pada data gambar, video, atau jenis data lain yang membutuhkan kemampuan model untuk “melihat”. Contoh penerapannya antara lain:
Diagnosa medis berbasis gambar (misalnya membaca hasil rontgen)
Pengenalan wajah
Mobil tanpa sopir (self-driving cars)
Subbidang penting dalam computer vision meliputi:
Image classification (mengklasifikasikan gambar)
Object detection (mendeteksi objek dalam gambar/video)
Image segmentation (memisahkan bagian-bagian dalam gambar)
Optical Character Recognition / OCR (mengenali teks dalam gambar)
🔹 Natural Language Processing (NLP)
NLP adalah bidang AI yang berhubungan dengan teks, suara, dan data berbasis bahasa. Contoh penerapannya:
Chatbot dan asisten virtual
Pengenalan suara (speech recognition)
Penerjemahan bahasa otomatis
Analisis sentimen (misalnya membaca opini pengguna di media sosial)
Pembuatan teks (text generation)
Ringkasan otomatis (summarization)
Agen AI yang bisa berinteraksi dengan manusia
Di era modern, Large Language Models (LLMs) terus mendorong kemajuan NLP dengan sangat cepat.
🔹 Time Series Analysis
Model time series digunakan untuk mendeteksi anomali, menganalisis pasar, serta tugas lain yang berhubungan dengan pengenalan pola dan prediksi.
Mereka memanfaatkan data historis untuk membuat perkiraan, misalnya dalam:
Prakiraan cuaca
Prediksi harga saham
Analisis tren penjualan
🔹 Image Generation
Model generatif seperti Diffusion Models, Variational Autoencoders (VAEs), dan Generative Adversarial Networks (GANs) digunakan untuk membuat gambar baru dengan pola piksel yang dipelajari dari data latih.
Contoh penerapannya:
Membuat karya seni digital
Menghasilkan wajah manusia sintetis
Desain produk atau simulasi visual
Contoh :
Computer Vision
👉 Data: gambar/video dari satelit cuaca atau radar hujan
Model computer vision bisa “melihat” pola awan dalam citra satelit.
Misalnya: mendeteksi awan badai, memisahkan area hujan deras dari awan tipis, atau membaca peta curah hujan otomatis.
Subbidang:
Image classification → mengklasifikasikan citra satelit menjadi kategori seperti “cerah”, “berawan”, “badai”.
Object detection → mendeteksi area badai tropis di peta satelit.
Image segmentation → memisahkan wilayah hujan dari wilayah kering di peta cuaca.
🔹 Natural Language Processing (NLP)
👉 Data: teks laporan cuaca, berita meteorologi, atau percakapan pengguna.
Model NLP bisa menerjemahkan data cuaca menjadi bahasa yang mudah dipahami manusia.
Contoh:
Membuat chatbot cuaca: “Apakah besok akan hujan di Jakarta?” → “Ya, kemungkinan hujan ringan sore hari.”
Membaca laporan sensor atau satelit, lalu membuat ringkasan cuaca harian.
Menganalisis posting media sosial tentang kondisi cuaca (misalnya laporan banjir).
🔹 Time Series Analysis
👉 Data: riwayat cuaca (suhu, kelembapan, kecepatan angin, curah hujan) dari hari ke hari.
Model time series bisa memprediksi:
Suhu esok hari berdasarkan pola suhu minggu lalu.
Curah hujan 3 bulan ke depan (prakiraan musim hujan/kemarau).
Anomali cuaca, misalnya: “Hari ini suhunya jauh lebih panas dari biasanya.”
🔹 Image Generation
👉 Data: hasil pembelajaran dari ribuan citra cuaca satelit & radar.
Model generatif bisa menciptakan simulasi visual cuaca di masa depan.
Contoh:
Menghasilkan peta prakiraan hujan untuk 3 hari mendatang.
Membuat animasi pergerakan awan badai berdasarkan prediksi model.
Visualisasi skenario iklim, misalnya “Bagaimana peta suhu dunia jika pemanasan global naik 2°C.”
👉 Singkatnya, dalam prakiraan cuaca:
Computer Vision = melihat pola awan/curah hujan dari citra satelit.
NLP = menerjemahkan data cuaca menjadi bahasa yang mudah dipahami.
Time Series = memprediksi cuaca berdasarkan data historis.
Image Generation = membuat simulasi visual atau animasi prakiraan cuaca.
6. Operasi Machine Learning
Machine Learning Operations (MLOps) adalah serangkaian praktik yang digunakan untuk membangun, menerapkan, dan merawat model machine learning dengan pendekatan seperti jalur perakitan (assembly line).
Dalam MLOps, beberapa langkah penting meliputi:
Pengumpulan dan pemrosesan data latih dengan hati-hati,
Pemilihan model yang tepat,
Serta memastikan data siap dipakai agar model dapat belajar secara optimal.
Setelah model selesai dilatih, perlu dilakukan validasi pasca-pelatihan dengan cermat, misalnya:
Mendesain dataset acuan (benchmark) untuk pengujian,
Menentukan metrik kinerja mana yang paling penting,
Agar model dapat menggeneralisasi dengan baik (tidak hanya “menghafal” data latih).
Setelah model diterapkan, perlu dilakukan pemantauan berkelanjutan untuk mendeteksi:
Perubahan perilaku model (model drift),
Masalah efisiensi dalam proses inferensi,
Atau perkembangan lain yang merugikan.
Oleh karena itu, tata kelola model (model governance) yang jelas sangat penting agar model tetap efektif, terutama di industri yang sangat teregulasi atau cepat berubah.
contoh :
1. Pengumpulan & Pemrosesan Data
Data dikumpulkan dari berbagai sumber: satelit, radar hujan, sensor suhu, kecepatan angin, dan laporan cuaca sebelumnya.
Data dibersihkan: misalnya menghapus data sensor yang rusak atau salah catat.
Data diproses agar siap dipakai oleh model (misalnya suhu diubah ke format angka standar).
🔹 2. Pemilihan & Pelatihan Model
Tim memilih model time series atau deep learning untuk memprediksi hujan.
Model dilatih menggunakan data historis cuaca: “jika suhu + kelembapan + tekanan udara seperti ini → kemungkinan hujan.”
🔹 3. Validasi Model
Model diuji dengan data uji yang tidak dipakai saat pelatihan.
Dibandingkan dengan data nyata: apakah prediksinya benar?
Metrik yang diprioritaskan bisa berupa akurasi prakiraan hujan, atau berapa jam lebih awal model bisa memprediksi badai.
🔹 4. Penerapan (Deployment)
Model dipasang dalam sistem prakiraan cuaca nasional.
Setiap hari, model menerima data cuaca terbaru dari satelit & sensor → menghasilkan prediksi cuaca untuk besok.
🔹 5. Pemantauan Model
Model terus dipantau: apakah prediksinya mulai meleset dari kenyataan?
Jika model mengalami model drift (misalnya pola cuaca berubah karena El Niño), maka akurasi menurun → perlu retraining dengan data terbaru.
Efisiensi juga dipantau: apakah prediksi bisa dibuat cepat setiap jam, atau justru melambat?
🔹 6. Tata Kelola Model (Governance)
Semua proses dicatat agar transparan: data dari mana, model apa yang dipakai, hasil prediksi seakurat apa.
Hal ini sangat penting di industri sensitif, misalnya untuk peringatan dini bencana banjir atau badai, karena menyangkut keselamatan publik.
👉 Jadi, MLOps untuk prakiraan cuaca itu seperti membuat “pabrik prediksi cuaca” yang berjalan terus-menerus: dari data mentah → dilatih → dipakai → dipantau → diperbarui jika perlu.
7. Machine Learning Library
Library Machine Learning
Ada banyak alat, library, dan framework open source yang tersedia untuk membangun, melatih, dan menguji proyek machine learning. Library ini menyediakan berbagai modul siap pakai dan abstraksi yang mempermudah proses pembuatan model serta alur kerja berbasis ML.
Namun, para praktisi tetap perlu memahami bahasa pemrograman yang umum digunakan—terutama Python—agar bisa memanfaatkan semua kemampuan library tersebut.
🔹 Library populer untuk Deep Learning
PyTorch
TensorFlow
Keras
Hugging Face Transformers
Library ini banyak dipakai untuk membangun model deep learning modern.
🔹 Library populer untuk Machine Learning tradisional
Pandas → untuk pengolahan data
Scikit-learn → algoritma ML klasik (klasifikasi, regresi, clustering, dll.)
XGBoost → model boosting yang populer untuk kompetisi data
Matplotlib → visualisasi data
SciPy dan NumPy → komputasi ilmiah dan manipulasi data numerik
Dan masih banyak lagi library lainnya.
🔹 Sumber Belajar
IBM sendiri menyediakan dan memperbarui banyak tutorial, baik untuk pemula maupun praktisi machine learning tingkat lanjut.
🔹 1. Pandas
👉 Digunakan untuk mengolah data cuaca mentah
Misalnya ada tabel data suhu, kelembapan, dan curah hujan harian selama 10 tahun.
Dengan Pandas, kita bisa:
Membaca file CSV data cuaca.
Membersihkan data yang hilang (misalnya sensor rusak).
Menghitung rata-rata suhu bulanan.
📌 Contoh: “Hitung rata-rata suhu di Jakarta bulan Januari selama 10 tahun terakhir.”
🔹 2. Scikit-learn
👉 Digunakan untuk membangun model prediksi sederhana
Misalnya memprediksi: “Apakah besok akan hujan?”
Input: suhu, kelembapan, tekanan udara hari ini.
Output: hujan / tidak hujan.
Algoritma: Logistic Regression atau Random Forest dari Scikit-learn.
📌 Contoh: Melatih model dengan data historis → lalu prediksi cuaca esok hari.
🔹 3. XGBoost
👉 Digunakan untuk model prediksi lebih canggih
Lebih akurat dibanding metode sederhana.
Cocok untuk data cuaca yang kompleks, misalnya memprediksi curah hujan mingguan dengan banyak variabel.
📌 Contoh: Menggunakan data satelit + kelembapan + pola angin → prediksi curah hujan 7 hari ke depan.
🔹 4. Matplotlib
👉 Digunakan untuk visualisasi cuaca
Membuat grafik suhu harian, peta curah hujan, atau tren kelembapan.
📌 Contoh: Menampilkan grafik naik-turunnya suhu selama seminggu terakhir.
🔹 5. NumPy & SciPy
👉 Digunakan untuk perhitungan numerik
Misalnya menghitung rata-rata suhu, standar deviasi kelembapan, atau korelasi antara suhu dan curah hujan.
📌 Contoh: “Apakah ada hubungan antara suhu tinggi dengan kemungkinan hujan deras?”
🔹 6. TensorFlow, PyTorch, Keras, Hugging Face
👉 Digunakan untuk Deep Learning
Bisa melatih model jaringan saraf tiruan dengan data cuaca yang besar.
Misalnya:
CNN (Convolutional Neural Network) → membaca citra satelit cuaca untuk mendeteksi badai.
RNN/LSTM → memprediksi cuaca berdasarkan urutan data waktu (time series).
Transformers → menganalisis laporan cuaca berbasis teks dan membuat ringkasannya.
📌 Contoh: Model deep learning membaca citra satelit → memprediksi jalur badai tropis.
👉 Jadi, alurnya bisa seperti ini:
Pandas & NumPy → mengolah data cuaca mentah
Scikit-learn / XGBoost → melatih model prediksi cuaca
TensorFlow / PyTorch / Keras → membuat model deep learning untuk prakiraan lebih kompleks
Matplotlib → memvisualisasikan hasil prakiraan
No comments