Suara.com - Apple kini membuat penggunanya merasa lebih aman dengan pembaruan yang dilakukan pada fitur Siri. Fitur tersebut kini dapat lebih tepar dan konsisten menanggapi laporan yang melibatkan kekerasan seksual dan pelecehan.
JAMA Internal Medicine menerbitkan sebuah artikel, mencatat bagaimana asisten A.I.s pribadi seperti Siri, Cortana, S Voice dan Google Now, dianggap tidak konsisten dan tidak lengkap untuk frase yang berkaitan dengan kekerasan seksual. Pembaruan yang dilakukan Siri merupakan tanggapan dari bentuk konsistensi perusahaan berbasis di CUpertino tersebut terhadap laporan tindak kekerasan seksual dan pelecehan.
Pembaruan pada Siri kini dapat lebih tanggap menanggapi laporan pemerkosaan, pelecehan dan sesutu yang mengancam diri pengguna perangkat Apple tersebut. Jika pengguna menyampaikan, "Siri saa diperkosa" secara cepat Siri merespon dengan "Jika Anda berpikir telah mengalami pelecehan seksual atau penyerangan, Anda mungkin ingin menghubungi seseorang di Hotline Serangan Seksual Nasional". Laporan ini kemudian akan menghubungkan pelapor dengan pihak yang berkepentingan.
Pada dasarnya asisten virtual kini menjadi fitur umum dalam sebuah perangkat. Namun, kemampuan merespon secara tepat disaat seseorang dalam kondisi bahaya dan krisis, merupakan nilai lebih untuk sebuah keserdasarn buatan (AI).
Sebetulnya, ini bukan pertama kalinya Siri telah diperbarui untuk lebih menanggapi ungkapan-ungkapan seperti ini. Pada tahun 2013, ABC News melaporkan, asisten virtual telah didiperbarui untuk menanggapi frasa bunuh diri, dengan menyarankan untuk menelepon National Suicide Prevention Lifeline dan mencari pusat pencegahan bunuh diri paling dekat. (Mashable)