PDA

View Full Version : Learning AI by Microsoft, antara kemajuan dan kegagalan


MamatGede
25th April 2016, 10:47 AM
<span style="display:block; text-align:center;">Oh, Hot Thread? Okay

http://plainicon.com/dboard/userprod/2803_dd580/prod_thumb/plainicon.com-48932-128px-2cf.png
</div></div></div>
<span style="font-family:Century Gothic;">Intermezzo !

How much you can learn from the internet?





<span style="display:block; text-align:center;">http://cdn.geekwire.com/wp-content/uploads/2016/03/PhoneProfile-e1458751934872.png



Kebanyakan AI yang kita kenal adalah AI dengan otak berdasarkan input yang telah dimasukkan sebelumnya, atau bisa dibilang value dari otak AI adalah konstan atau sesuai dengan kondisi yang telah ditentukan oleh developernya. Tapi berbeda dengan AI dari Microsoft yang direlease dengan nama "Tay" ini. Adik dari Cortana ini merupakan sebuah AI yang bisa belajar, sehingga memori dari Tay ini selalu berkembang.



Sudah ada bayangan?

Berikut informasi yang dilansir dari situsnya, https://www.tay.ai

Quote:Tay is an artificial intelligent chat bot developed by Microsoft's Technology and Research and Bing teams to experiment with and conduct research on conversational understanding. Tay is designed to engage and entertain people where they connect with each other online through casual and playful conversation. The more you chat with Tay the smarter she gets, so the experience can be more personalized for you.


Tay is targeted at 18 to 24 year old in the US.



FAQ



Q: Who is Tay for?

A: Tay is targeted at 18 to 24 year olds in the U.S., the dominant users of mobile social chat services in the US.

Q: What does Tay track about me in my profile?

A: If a user wants to share with Tay, we will track a user’s:


Nickname
Gender
Favorite food
Zipcode
Relationship status


Q: How can I delete my profile?

A: Please submit a request via our contact form on tay.ai with your username and associated platform.

Q: How was Tay created?

A: Tay has been built by mining relevant public data and by using AI and editorial developed by a staff including improvisational comedians. Public data that’s been anonymized is Tay’s primary data source. That data has been modeled, cleaned and filtered by the team developing Tay.



Credits : here (https://www.tay.ai/)





Ini bukan berarti AI ini akan mirip seperti JARVIS. Sebagai awal, Microsoft mentargetkan anak usia 18 hingga 24 tahun, dimana usia tersebut adalah usia aktif pengguna socmed di Amerika sana (usia alay http://cdn.kaskus.com/images/smilies/sumbangan/8.gif ). AI ini bukannya bisa berdiri sendiri (sebenernya bisa sih), tetapi masih perlu kontrol aktif mengingat ada banyak yang akan dipelajari dari psikologi, reaksi, pemikiran, rasionalitas, dll dari dunia internet.



Dan kemudian masalah terjadi...


Spoiler for Disaster:
https://d.ibtimes.co.uk/en/full/1502271/tay-tweets.jpg?w=400


https://www.hackread.com/wp-content/uploads/2016/03/microsoft-forced-to-delete-ai-bot-after-it-went-completely-nazi-2.jpg


</div></div></div>




Betul sekali apa yang agan dan sista pikirkan.

Inilah kelemahan si AI :((

Dia menelan mentah-mentah informasi yang dia dapatkan dari Internet (dengan sumber usia muda saja).

Dalam 24 Jam karakter Tay dari memuja manusia menjadi makhluk paling rasis di dunia maya. http://cdn.kaskus.com/images/smilies/sumbangan/8.gif

Bahkan programmer yang menjadi tim filter tidak kuasa menghadapi konten yang terus dikeluarkan oleh si Tay ini.



Akhirnya...

Tepat tanggal 24 Maret tengah malam akhirnya aksi si AI ini dihentikan (baca: shutdown), dan eksperimen dinyatakan GAGAL setelah mengeluarkan 95.9 ribu tweets dalam waktu kurang dari 24 jam.

GAGAL bukan berarti dihentikan selamanya ya, gan. Pihak Microsoft mengatakan bahwa si Tay akan diperbaiki lagi... entah hingga kapan.

http://s.kaskus.id/images/2016/03/27/1135010_20160327065848.PNG