Explainable AI

Beberapa hari yang lalu di milist data science di kampus saya ada invitation seminar, dari judulnya sepertinya sangat menarik. Judulnya adalah “Toward white-box machine learning”. Langsung saya add di calender karena saya tidak ingin kelupaan untuk menghadiri seminar ini. Pembicaranya adalah peneliti lulusan PhD dari ANU kemudian dia postdoc di NUS dan sekarang bekerja sebagai peneliti di Griffith University. Dia author dari paper “Silas: High Performance, Explainable and Verifiable Machine Learning”. Tadinya saya kira mau bahas tentang white-box deep-learning, ternyata ML yg dia pakai adalah ensemble trees (nomor 4 kalau digambar dibawah ini). Tapi keren juga sih, jadi framework yang dia buat “Silas” ini bisa menjawab pertanyaan user, bila user pingin tau kenapa output sistem seperti ini? (kalau penasaran bisa langsung di baca papernya, atau Silas juga available dan bisa kita coba kok).

Gambar ini saya ambil dari salah satu slide presenter, di gambar ini jelas ya misal seperti linear model secara logical analisis memang sangat bagus karena memang sangat mudah untuk dipahami dan transparan, kita bahkan bisa tahu kenapa model bisa memberikan jawaban A misalnya. Akan tetapi linear model seperti ini secara performance biasanya jelek. Sekarang coba kita lihat misal SVM atau yg lagi ngetrend sekarang deep learning, deep learning secara performance akurasi memang sangat bagus tapi sangat tidak transparant atau bisa kita katakan “black-box”.

Gambar lain (gambar ke 2) yang saya ambil dari KDnuggets ini juga bisa menjelaskan hubungan antara accuracy dan explainability. Seperti yang bisa kita lihat di gambar, Neural Networks adalah juaranya dalam hal accuracy tp tentu paling jelek dalam hal explainability. Sebaliknya seperti regresi apalagi regresi linear secara explainability sangat bagus tapi ya secara akurasi jauh bila kita compare dg DL/NN misalnya.

Explainable AI ini sangat menarik, kalau tidak salah tahun lalu DARPA sampai mengucurkan dana sekitar 2 milyar dollar untuk penelitian explainable AI ini. Sebenernya hemat saya sih, explainable AI ini penting untuk hal-hal yang menyangkut nyawa orang hehe, misalnya bila kita ingin implementasi deep learning di ICU atau di bidang healthcare atau self driving car itu memang kita harus consider explainable AI ini. Karena keputusan yang akan dibuat oleh AI cukup krusial maka memang perlu lah kita tau kok ini sistem ngasih output begini apa alasannya? Tapi misalnya implementasi deep learning untuk game itu menurut saya tak perlu kita rempong dengan explainable AI ini. Contoh film dokumenter yg bagus tahun 2016 misal AlphaGO dari DeepMind Google yang bisa mengalahkan juara dunia pemain Go “Lee Sedol”. Tentu tidak perlu kita terlalu risau memikirkan explainable AI untuk konteks ini hehe.

Ini video youtube alpha Go

 

Jadi pertanyaannya, adakah disini yang tertarik atau sedang riset explainable AI ini? sepertinya menarik kalau bisa ngopi2 hehe.

Salam dari pinggir kali Brisbane

Rischan

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.