Course Content
Fondasi dan Kebutuhan
Bagian ini menjadi landasan utama untuk memahami konsep modern Data Warehousing. Mahasiswa diperkenalkan pada prinsip dasar, arsitektur, dan peran gudang data dalam mendukung pengambilan keputusan organisasi. Topik mencakup pengantar data warehouse, model dan arsitektur (top-down, bottom-up, hybrid), proses ETL (Extract–Transform–Load), serta pentingnya metadata, kualitas data, dan teknologi terkini seperti cloud data warehouse dan big data integration. Selain itu, mahasiswa belajar menganalisis sistem sumber, mengenali perbedaan OLTP vs OLAP, dan menyusun desain konseptual awal gudang data berdasarkan kebutuhan bisnis.
0/1
Desain Logika dan Fisikal
Bagian ini menekankan keterampilan teknis mahasiswa dalam merancang struktur logikal hingga fisikal gudang data. Mahasiswa mempelajari pemodelan skema bintang (Star Schema), dimensi waktu, serta konsep primary–foreign key relationships dan normalisasi (3NF). Topik lanjutan mencakup Slowly Changing Dimension (SCD), Bridge Table, Determinant Dimension, Junk Dimension, serta penggunaan Surrogate dan Natural Keys. Mahasiswa juga dikenalkan pada multi-fact schema dan teknik slicing fact, sebelum akhirnya memahami desain fisikal seperti indeks, materialized view, partisi, dan optimasi star query pada sistem seperti SQL Server/Analysis Services. Bagian ini ditutup dengan pembahasan spesifikasi kebutuhan dan manajemen proyek gudang data berdasarkan metodologi perencanaan, tim proyek, dan tahapan pengembangan yang sistematis.
0/3
Integrasi dan Tata Kelola
Bagian ini membahas bagaimana data dari berbagai sistem operasional diintegrasikan ke dalam gudang data dengan proses ETL (Extract, Transform, Load) maupun ELT (Extract, Load, Transform). Mahasiswa akan mempelajari prinsip desain ETL, analisis sistem sumber, dan penggunaan BPMN (Business Process Model and Notation) untuk memodelkan alur ekstraksi dan transformasi data. Konsep Changed Data Capture (CDC) dan ETL staging area diperkenalkan sebagai dasar dalam menangani pembaruan data secara efisien. Selain itu, bagian ini juga membahas implementasi ETL menggunakan Integration Services serta manajemen metadata dalam gudang data—termasuk tipe metadata (statik dan dinamis), metadata repository, business vs technical metadata, serta pengelolaan SLA (Service Level Agreement) untuk metadata real-time. Melalui bagian ini, mahasiswa memahami bagaimana integrasi, dokumentasi, dan tata kelola data yang baik menjadi fondasi keberhasilan gudang data.
0/3
Analitik
Bagian ini fokus pada pemanfaatan gudang data untuk analisis multidimensi (OLAP) dan eksplorasi data secara interaktif. Mahasiswa diperkenalkan pada operasi OLAP seperti drill-down, roll-up, slice, dan dice untuk menjelajahi dimensi data. Dipelajari pula tiga pendekatan utama—MOLAP, ROLAP, dan HOLAP—beserta cara kerja data cube dan teknik rollup aggregation. Bagian ini juga mencakup penggunaan ranking functions dan aggregate functions dalam SQL analitik, serta bahasa khusus analitik seperti MDX (Multidimensional Expressions) dan DAX (Data Analysis Expressions) yang digunakan dalam platform seperti Analysis Services atau Power BI. Tujuannya agar mahasiswa mampu mengubah data gudang menjadi informasi strategis melalui desain query OLAP, analisis KPI, dan visualisasi laporan atau dashboard bisnis.
0/2
Implementasi dan Pengembangan
Bagian ini menjadi tahapan akhir yang memadukan seluruh aspek perancangan, integrasi, dan analitik ke dalam sistem gudang data yang utuh. Mahasiswa akan memulai dengan spesifikasi kebutuhan, mencakup pendekatan business-driven, data-driven, dan hybrid, identifikasi KPI, serta analisis kebutuhan pengguna dan sumber data. Selanjutnya, dibahas proses implementasi dan pengembangan seperti penerapan multi-fact star schema, multi-input operational database, teknik vertical dan horizontal stacking, serta pengaturan granularity dan levels of aggregation. Mahasiswa juga mempelajari incremental updates, schema evolution, serta pengembangan gudang data berbasis temporal, spatial, dan big data (NoSQL/Cloud). Tahapan terakhir mencakup uji coba dan validasi desain, dengan topik seperti data quality assessment, SLA kualitas data, post-load audit, dashboard validation, serta evaluasi kinerja BI reporting. Bagian ini menyiapkan mahasiswa untuk membangun gudang data yang stabil, dapat diukur kualitasnya, dan siap mendukung analisis tingkat lanjut di lingkungan bisnis nyata.
0/3
Pergudangan Data

Lecture 1: Pengantar Modern Pergudangan Data

Lecturer: Ardika Satria  |   Scribes: Catatan Kuliah

Indikator

  • Memahami konsep dasar dan prinsip-prinsip gudang data modern.
  • Menganalisis perbedaan model data dan arsitektur gudang data (Kimball, Inmon, EDW, ODS, Data Mart).
  • Menjelaskan alur ETL/ELT serta peran Business Intelligence dalam pemanfaatan gudang data.
  • Mengevaluasi peran metadata dan kualitas data dalam menjaga konsistensi serta kepercayaan pengguna.

1. Pendahuluan

Pada dekade 1980–1990-an, organisasi menghadapi ledakan data dari berbagai aplikasi operasional.
Informasi bisnis yang sebelumnya dapat dipantau dengan mudah melalui catatan atau laporan sederhana,
semakin terpecah dan terjebak di berbagai sistem yang tidak saling terhubung.
Untuk menjawab tantangan tersebut, muncullah Decision Support Systems (DSS)
yang berfungsi menyajikan laporan terstruktur bagi manajer dan eksekutif.
Namun, DSS tradisional hanya mampu memberikan gambaran per bidang bisnis, tanpa integrasi lintas fungsi.

Definisi

Decision Support System (DSS)
Sebuah sistem yang menyediakan laporan dan analisis untuk membantu proses pengambilan keputusan manajerial.
DSS menjadi cikal bakal lahirnya konsep gudang data modern.

1.1 Tokoh dan Prinsip Dasar

Situasi ini melahirkan konsep gudang data (data warehouse),
sebuah arsitektur yang menyatukan data dari berbagai aplikasi ke dalam satu repositori yang konsisten.
Dua tokoh penting, Ralph Kimball dan Bill Inmon,
merumuskan prinsip-prinsip yang hingga kini menjadi fondasi gudang data modern, seperti:
subject orientation, integration, nonvolatility, time-variant,
one version of the truth, serta long-term investment.

1.2 Pendekatan Kimball dan Inmon

  • Kimball (Bottom-up / Dimensional Modeling)
    Memulai dari kebutuhan analitik bisnis.
    Membangun Data Marts per-subjek dengan model Star Schema,
    lalu mengintegrasikan Data Marts menjadi gudang data terpadu.
    Kelebihan: cepat memberikan hasil, mudah dipahami pengguna bisnis.
  • Inmon (Top-down / 3NF Modeling)
    Memulai dari perspektif enterprise.
    Membangun Enterprise Data Warehouse (EDW) terpusat dengan model Third Normal Form,
    lalu menurunkan data ke Data Marts khusus.
    Kelebihan: data lebih konsisten, sesuai kebutuhan enterprise jangka panjang.

Contoh

Pendekatan Kimball cocok untuk perusahaan ritel yang membutuhkan laporan cepat per kategori penjualan.
Sementara pendekatan Inmon lebih tepat untuk lembaga keuangan besar yang mengutamakan konsistensi data lintas divisi.

1.3 Data Vault sebagai Evolusi Modern

Selain Kimball dan Inmon, muncul pula paradigma Data Vault
yang diperkenalkan oleh Dan Linstedt pada akhir 1990-an.
Data Vault dirancang untuk fleksibilitas dan skalabilitas di era big data,
dengan membagi model data menjadi:

  • Hub: entitas inti bisnis (misal pelanggan, produk).
  • Link: hubungan antar entitas (misal transaksi pelanggan–produk).
  • Satellite: atribut deskriptif dan histori perubahan yang melekat pada Hub atau Link.

Pendekatan ini memudahkan adaptasi terhadap perubahan struktur data dan memperkuat jejak historis.

1.4 Evolusi Era 2000–2020 dan 2020–Sekarang

Era 2000–2020: Gudang Data Tradisional hingga Modern Awal

  • Fokus pada Enterprise Data Warehouse (EDW) sebagai repositori pusat.
  • Perdebatan utama: Kimball (Star Schema, Data Marts) vs
    Inmon (3NF, Corporate Information Factory).
  • Arsitektur tiga komponen: EDW, Data Mart, dan Operational Data Store (ODS).
  • Pemrosesan data berbasis ETL batch (harian/mingguan).
  • Teknologi populer: Teradata, Oracle DW, Microsoft SQL Server, IBM DB2.
  • Penggunaan OLAP cube untuk analisis multidimensi.

Era 2020–Sekarang: Gudang Data Modern dan Cloud-Native

  • Peralihan ke Cloud Data Warehouse (Snowflake, BigQuery, Redshift, Synapse).
  • Integrasi dengan Data Lakehouse (Databricks, Delta Lake, Apache Iceberg).
  • Pergeseran ETL menjadi ELT dan pemrosesan real-time streaming.
  • Konsep Data Mesh dan Data Fabric untuk arsitektur terdistribusi.
  • Integrasi AI/ML langsung pada gudang data untuk analitik prediktif.
  • Adopsi DataOps dan MLOps untuk pipeline data berkelanjutan.

Alur gudang data modern

Gambar 1. Alur umum gudang data modern: dari sumber data hingga BI Reporting.

Secara umum, alur kerja gudang data dapat digambarkan seperti pada gambar di atas.
Data berasal dari berbagai operational applications sebagai source data,
lalu masuk ke tahap data acquisition and integration melalui proses ETL/ELT.
Selanjutnya, data disimpan dalam relational database pada lapisan database design,
yang membentuk inti repositori gudang data.
Kualitas data dijaga oleh data quality repository,
sedangkan konteks dan definisinya didukung oleh metadata repository.
Pada tahap akhir, data dimanfaatkan melalui BI reporting yang menyediakan laporan baku, laporan interaktif,
dan analisis multidimensi berbasis OLAP bagi pengguna bisnis.

Pendahuluan ini menunjukkan bahwa konsep modern gudang data berkembang dari kebutuhan integrasi DSS,
diformulasikan oleh Kimball dan Inmon, kemudian berevolusi dengan Data Vault, serta kini memasuki era cloud, big data, dan AI.
Gudang data modern tidak lagi sekadar repositori historis, tetapi menjadi fondasi strategis untuk analitik real-time dan
pengambilan keputusan berbasis data.