Skip to main content

Faktor Kunci Dalam Keberhasilan Investasi Big Data Analytics

Seperti halnya investasi IT yang besar lainnya, faktor keberhasilan investasi dalam implementasi Big Data Analytics bergantung pada sejumlah faktor. Gambar berikut di bawah ini menunjukkan faktor keberhasilan yang paling menentukan.
Faktor kunci keberhasilan Big Data Analytics

1. Kebutuhan bisnis yang jelas (selaras dengan visi dan strategi). 

Investasi bisnis harus dibuat demi kebaikan bisnis, bukan melulu demi perkembangan teknologi. Karena itu pendorong utama dalam Big Data Analytics seharusnya adalah kebutuhan bisnis di semua tingkatan baik di tingkat strategis, taktis, maupun operasional.

2. Dukungan yang kuat dan berkomitmen (dari para eksekutif yang berjiwa pemenang). 

Sudah merupakan hal yang umum bahwa bila kita tidak memiliki dukungan eksekutif yang kuat dan berkomitmen, sangatlah susah (atau tidak mungkin) untuk berhasil. Bila ruang lingkupnya hanya kecil atau beberapa aplikasi analitik saja, dukungan tersebut bisa hanya di tingkat departmen saja. Tetapi bila targetnya adalah transformasi seluruh perusahaan/grup, dukungan eksekutif harus pada tingkat yang lebih tinggi.

3. Keselarasan antara strategi bisnis dan IT.

Sangatlah penting memastikan bahwa pekerjaan analitik adalah selalu untuk mendukung strategi bisnis dan bukan sebaliknya. Analitik seharusnya memainkan peranan yang mendobrak dalam mengeksekusi strategi bisnis.

4. Kultur pengambilan keputusan yang berbasis fakta.

Di dalam kultur pengambilan keputusan yang berbasis fakta, angka-angka atau data-data lebih penting daripada pengambilan keputusan yang menggunakan intuisi, firasat, anggapan, dsb. Selain itu juga ada kultur bereksperimen untuk melihat apa saja yang berhasil dan yang tidak. Untuk menciptakan kultur pengambilan keputusan berbasis fakta, manajemen senior harus:
  • Mengenali bahwa beberapa orang tidak bisa atau tidak akan menyesuaikan diri
  • Menjadi pendukung yang vokal
  • Menekankan bahwa metode-metode yang kuno harus dihentikan
  • Bertanya untuk mengetahui bahwa keputusan dihasilkan dari proses analitik
  • Menghubungkan insentif dan kompensasi atas perilaku yang diharapkan tersebut
5. Infrastruktur data yang handal

Data warehouse memberikan infrastruktut data untuk analitik. Infrastruktur ini terus berubah dan ditingkatkan dalam era Big Data dengan teknologi-teknologi baru. Kesuksesan perlu mengawinkan antara infrastruktur yang lama dengan yang baru secara holistik sehingga mampu berjalan dengan sinergis.

Karena kompleksitas dan ukuran akan selalu meningkat, kebutuhan untuk sistem-sistem analitik yang lebih efisien juga akan meningkat. Supaya tetap selaras dengan kebutuhan komputasi Big Data, sejumlah teknik-teknik dan platform yang baru dan inovatif sudah dikembangkan. Teknik-teknik ini secara kolektif disebut dengan ‘high-performance computing’, antara lain meliputi”:
  • In-memory analytics. Teknik ini akan memecahkan problem-problem yang kompleks secara real-time dengan insight yang sangat akurat dengan menggunakan komputasi analitik dan Big Data untuk diproses secara ‘in-memory’ dan di distribusikan lintas node secara dedicated.
  • In-database analytics. Teknik ini akan mempercepat waktu untuk mendapatkan insight dan mendorong tata kelola data yang lebih baik dengan melakukan integrasi data dan fungsi-fungsi analitik di dalam database sehingga kita tidak harus memindahkan datau mengkonversi data berulang-ulang.
  • Grid computing. Teknik ini akan meningkatkan efisiensi, biaya yang rendah, dan kinerja yang lebih baik dengan memproses job dalam sekumpulan sumber data IT yang dipakai bersama oleh beberapa proses komputasi dan dikelola secara sentral.
  • Appliances. Ini akan membawa hardware dan software secara bersamaan dalam unit fisikal yang tidak hanya cepat tetapi juga scalable berdasarkan kebutuhan.
Kebutuhan komputasi hanyalah sebagian kecil dari daftar tantangan dalam Big Data bagi perusahaan saat ini. Berikut adalah daftar tantangan yang ditemui para eksekutif bisnis untuk mendapatkan impact yang signifikan pada implementasi bisnis dari Big Data analytics. Ketika mempertimbangkan arsitektur dan project-project Big Data, menyadari tantangan-tantangan ini akan membuat perjalanan dalam menempuh kompetensi Big Data menjadi tidak terlalu stress.
  • Volume data. Ini adalah tantanga tentang kemampuan dalam menangkap, menyimpan, dan memproses volume data yang sangat besar dengan kecepatan yang bisa diterima sehingga informasi terbaru bisa tersedia bagi para pengambil keputusan ketika mereka memerlukannya.
  • Integrasi data. Ini adalah tantangan tentang kemampuan mengkombinasikan data yang memiliki struktur yang berbeda atau sumber yang berbeda dan melakukannya dengan sangat cepat dengan biaya yang masuk akal.
  • Kemampuan memproses. Ini adalah tentang kemampuan memproses data secara cepat saat itu juga ketika data ditangkap. Cara tradisional dalam mengumpulkan dan memproses data mungkin tidak akan berhasil. Dalam berbagai situasi data perlu dianalisa secepat mungkin setelah data ditangkap untuk meningkatkan nilai/manfaatnya. (Ini disebut dengan ‘stream analytics’).
  • Tata kelola data. Ini adalah tentang kemampuan untuk mengikuti/selaras dengan isu-isu terkait keamanan, privasi, kepemilikan, dan kualitas dari Big Data. Karena volume, variety (format dan sumbernya), dan velocity dari data terus berubah, demikian juga dengan praktik-praktik tata kelolanya.
  • Ketersediaan skill. Big Data sedang digunakan dengan berbagai macam tool baru dan dilihat dengan berbagai macam cara. Ada kekurangan orang (seringkali disebut dengan ‘data scientists’) dengan skill yang bisa melakukan pekerjaan ini.
  • Biaya solusi. Karena Big Data telah membuka mata dunia tentang potensi peningkatan bisnis, suatu eksperimentasi dan penemuan yang hebat sedang berlangsung untuk menentukan pola-pola yang menjadi perhatian dan insight yang berubah menjadi suatu nilai. Karena itu untuk memastikan ROI dalam project Big Data, sangatlah penting untuk mengurangi biaya yang telah digunakan untuk mendapatkan nilai tersebut.
Meskipun tantangan-tantangan tersebut sangat nyata, begitu pula dengan ‘value proposition’ dari Big Data analytics. Apapun yang bisa kita lakukan sebagai ahli dalam ‘business analytics’ untuk membantu membuktikan nilai dari berbagai macam sumber data yang baru kepada para pemimpin bisnis akan menggerakkan organisasi kita melebihi sekedar eksperimentasi dan mengekplor Big Data menjadi mengadopsi dan menganutnya sebagai suatu ‘pembeda’. Tidak ada yang salah dengan eksplorasi, tetapi pada akhirnya nilai/manfaat akan muncul dengan mengubah insight-insight tersebut menjadi suatu tindakan.

Link terkait Big Data:

Comments

Popular posts from this blog

Pengertian Binding dalam Bahasa Pemrograman dan Kapan Terjadinya

Binding dimaksudkan sebagai pengikatan (association) antara suatu entity dengan atributnya, misalnya binding/pengikatan antara suatu variable dengan tipe datanya atau dengan nilainya, atau dapat juga antara suatu operasi dengan simbol, misalnya simbol + dikenali sebagai operasi penjumlahan atau simbol ^ dikenali sebagai operasi pangkat, dll.  Peristiwa binding dan kapan terjadinya binding (biasanya disebut dengan binding time ) berperan penting dalam membicarakan semantics suatu bahasa pemrograman. Beberapa kemungkinan binding time adalah:

Latihan Soal Jawab Matematika Diskrit

Berikut di bawah ini adalah latihan soal jawab untuk matematika diskrit dengan topik-topik: Pernyataan Logika Circuits dan Ekspresi Boolean Argumen (valid/tidak valid) Teori Himpunan Permutasi Fungsi --o0o-- Pernyataan Logika 1. Buatlah tabel kebenaran untuk menentukan yang mana tautology dan yang mana contradiction dalam pernyataan logika (a) dan (b) di bawah ini: a. (p ∧ q) ∨ (∼p ∨ (p ∧ ∼q)) b.  (p ∧ ∼q) ∧ (∼p ∨ q)

Contoh proses normalisasi relasi dari UNF – 1NF – 2NF – dan 3NF

Dalam posting tulisan tentang: “Tujuan dan Manfaat Normalisasi dalam Perancangan Database” , kita sudah mempelajari tentang: “Apa itu normalisasi” dan “Mengapa kita perlu melakukan normalisasi”. Kedua pertanyaan itu sudah terjawab dalam tulisan tersebut.  Kemudian dalam posting tulisan tentang: “Konsep Ketergantungan Fungsional, Normalisasi, dan Identifikasi Primary Key dalam Perancangan Sistem Database” , kita sudah mempelajari suatu konsep penting yang digunakan untuk melakukan normalisasi, yaitu konsep ketergantungan fungsional yang terdiri dari ketergantungan penuh, ketergantungan parsial atau sebagian, dan ketergantungan transitif. Proses normalisasi pertama-tama dilakukan dengan mengidentifikasi adanya ketergantungan-ketergantungan tersebut dalam relasi-relasi dan kemudian menghilangkannya. Cara melakukan normalisasi, mengidentifikasi berbagai macam ketergantungan, dan menghilangkan ketergantungan pada relasi-relasi bisa dipelajari ulang dalam postingan tulisan d...