dbo:abstract
|
- Existenční rizika plynoucí z vývoje umělé inteligence je hypotetickou hrozbou předpovídající, že dramatický pokrok ve vývoji umělé inteligence (AI) by mohl jednoho dne skončit vyhynutím lidské rasy (nebo jinou globální katastrofou). Lidská rasa v současnosti dominuje nad ostatními druhy, jelikož lidský mozek má některé rozhodující schopnosti, které mozky zvířat postrádají. Pokud však AI předčí lidstvo v běžné inteligenci a stane se „super inteligencí“, mohla by se stát velmi mocnou a těžko kontrolovatelnou, osud lidstva by tak tedy mohl potenciálně záviset na jednání budoucí strojové super inteligence. Vážnost různých rizikových scénářů je široce diskutována a závisí na bezpočtu nevyřešených otázek ohledně budoucího vývoje počítačové vědy. Dvěma hlavními zdroji obav je, že náhlá a nečekaná „exploze inteligence“ může překvapit nepřipravené lidstvo a že kontrola super inteligentního stroje (či dokonce pokus vštěpovat mu lidské hodnoty) může být mnohem větší problém než se naivně předpokládá. (cs)
- الخطر الوجودي من الذكاء الاصطناعي العام يرجع إلى الفرضية القائلة أن التقدم الكبير في الذكاء الاصطناعي العام قد يؤدي إلى الانقراض البشري أو إلى كارثة عالمية غير قابلة للاسترداد. و الحجة الداعمة لهذه الفرضية هي أن البشر مهيمنون على باقي المخلوقات لامتيازهم بدماغ ذو قدرات مميزة تفتقر إليها أدمغة المخلوقات الأخرى (كالحيوانات مثلًا) ، و عليه إذا تفوق الذكاء الاصطناعي العام على الأدمغة البشرية و أصبحت بدورها فائقة الذكاء فإنها ستكون قوية و يُصعب التحكم بها، و يتوقف مصير البشرية على تصرفات هذه الأجهزة. بدأت المخاوف من أجهزة الذكاء الاصطناعي عام 2010م، و قد تحدث عن هذه المخاوف عدة شخصيات مهمة مثل ستيفن هوكينج و بيل غيتس و أيلون موسك، و أصبحت النقاشات حول خطورة هذه الأجهزة واسعة، بسيناريوهات مختلفة. و أحد تلك المخاوف هو القلق من انفجار المعلومات الاستخبارية بشكل مفاجئ يسبق البشر؛ ففي أحد السيناريوهات استطاع برنامج حاسوبي من مضاهاة صانعه، فكان قادرًا على إعادة كتابة خوارزمياته و مضاعفة سرعته و قدراته خلال ستة أشهر من زمن المعالجة المتوازية، و عليه من المتوقع أن بستغرق برنامج الجيل الثاني ثلاثة أشهر لأداء عمل مشابه، و في قد يستغرق مضاعفة قدراته وقتًا أطول إذا كان يواجه فترة خمول أو أسرع إذا خضع إلى ثورة الذكاء الاصطناعي و الذي يسْهل تحوير أفكار الجيل السابق بشكل خاص إلى الجيل التالي. في هذا السيناريو يمر النظام لعدد كبير من الأجيال التي تتطور في فترة زمنية قصيرة، تبدأ بأداء أقل من المستوى البشري و تصل إلى أداء يفوق المستوى البشري في جميع المجالات. و أحد المخاوف من أجهزة الذكاء الاصطناعي هي أن التحكم بهذه الآلات أو حتى برمجتها بقيم مشابهة لقيم الإنسان أمر صعب للغاية، فبعض الباحثين في هذا المجال يعتقدون أن أجهزة الذكاء الاصطناعي قد تحاول إيقاف إغلاقها، في المقابل يقول المشككون مثل Yann LeCun أن هذه الآلات لن تكون لديها الرغبة في الحفاظ على نفسها. (ar)
- Existential risk from artificial general intelligence is the hypothesis that substantial progress in artificial general intelligence (AGI) could result in human extinction or some other unrecoverable global catastrophe. It is argued that the human species currently dominates other species because the human brain has some distinctive capabilities that other animals lack. If AI surpasses humanity in general intelligence and becomes "superintelligent", then it could become difficult or impossible for humans to control. Just as the fate of the mountain gorilla depends on human goodwill, so might the fate of humanity depend on the actions of a future machine superintelligence. The chance of this type of scenario is widely debated, and hinges in part on differing scenarios for future progress in computer science. Once the exclusive domain of science fiction, concerns about superintelligence started to become mainstream in the 2010s, and were popularized by public figures such as Stephen Hawking, Bill Gates, and Elon Musk. One source of concern is that controlling a superintelligent machine, or instilling it with human-compatible values, may be a harder problem than naïvely supposed. Many researchers believe that a superintelligence would naturally resist attempts to shut it off or change its goals—a principle called instrumental convergence—and that preprogramming a superintelligence with a full set of human values will prove to be an extremely difficult technical task. In contrast, skeptics such as computer scientist Yann LeCun argue that superintelligent machines will have no desire for self-preservation. A second source of concern is that a sudden and unexpected "intelligence explosion" might take an unprepared human race by surprise. To illustrate, if the first generation of a computer program able to broadly match the effectiveness of an AI researcher is able to rewrite its algorithms and double its speed or capabilities in six months, then the second-generation program is expected to take three calendar months to perform a similar chunk of work. In this scenario the time for each generation continues to shrink, and the system undergoes an unprecedentedly large number of generations of improvement in a short time interval, jumping from subhuman performance in many areas to superhuman performance in all relevant areas. Empirically, examples like AlphaZero in the domain of Go show that AI systems can sometimes progress from narrow human-level ability to narrow superhuman ability extremely rapidly. (en)
- Krisis eksistensial dari kecerdasan buatan adalah kekhawatiran bahwa kemajuan kecerdasan buatan (AI) suatu hari dapat mengakibatkan kepunahan manusia atau . Kekhawatiran ini didasarkan pada argumen bahwa manusia saat ini mendominasi spesies-spesies lainnya karena otak manusia memiliki kemampuan khusus yang tidak dimiliki oleh hewan-hewan lain. Jika kecerdasan buatan berhasil melampaui manusia dan menjadi sangat-sangat cerdas, maka kecerdasan buatan ini akan menjadi sangat kuat dan sulit untuk dikendalikan. Nasib gorila pegunungan saat ini bergantung kepada itikad baik dari manusia, dan mungkin suatu hari nanti nasib manusia juga akan bergantung pada kecerdasan buatan. Besarnya risiko kecerdasan buatan saat ini masih diperdebatkan dan terdapat beberapa skenario mengenai masa depan ilmu komputer. Sebelumnya kekhawatiran ini hanya masuk ke dalam ranah fiksi ilmiah, tetapi kemudian mulai dipertimbangkan secara serius pada tahun 2010-an dan dipopulerkan oleh tokoh-tokoh besar seperti Stephen Hawking, Bill Gates, dan Elon Musk. Salah satu kekhawatiran utama adalah perkembangan kecerdasan buatan yang begitu cepat, mendadak dan tidak terduga, sehingga manusia pun tidak siap untuk menghadapinya. Kekhawatiran lainnya berasal dari kemungkinan bahwa mesin yang sangat-sangat cerdas sangat sulit untuk dikendalikan. Beberapa peneliti kecerdasan buatan berkeyakinan bahwa kecerdasan buatan secara alami akan melawan upaya untuk mematikannya, dan pemrograman kecerdasan buatan dengan etika dan moral manusia yang rumit mungkin merupakan hal teknis yang sulit untuk dilakukan. (in)
|
rdfs:comment
|
- الخطر الوجودي من الذكاء الاصطناعي العام يرجع إلى الفرضية القائلة أن التقدم الكبير في الذكاء الاصطناعي العام قد يؤدي إلى الانقراض البشري أو إلى كارثة عالمية غير قابلة للاسترداد. و الحجة الداعمة لهذه الفرضية هي أن البشر مهيمنون على باقي المخلوقات لامتيازهم بدماغ ذو قدرات مميزة تفتقر إليها أدمغة المخلوقات الأخرى (كالحيوانات مثلًا) ، و عليه إذا تفوق الذكاء الاصطناعي العام على الأدمغة البشرية و أصبحت بدورها فائقة الذكاء فإنها ستكون قوية و يُصعب التحكم بها، و يتوقف مصير البشرية على تصرفات هذه الأجهزة. (ar)
- Existenční rizika plynoucí z vývoje umělé inteligence je hypotetickou hrozbou předpovídající, že dramatický pokrok ve vývoji umělé inteligence (AI) by mohl jednoho dne skončit vyhynutím lidské rasy (nebo jinou globální katastrofou). Lidská rasa v současnosti dominuje nad ostatními druhy, jelikož lidský mozek má některé rozhodující schopnosti, které mozky zvířat postrádají. Pokud však AI předčí lidstvo v běžné inteligenci a stane se „super inteligencí“, mohla by se stát velmi mocnou a těžko kontrolovatelnou, osud lidstva by tak tedy mohl potenciálně záviset na jednání budoucí strojové super inteligence. (cs)
- Existential risk from artificial general intelligence is the hypothesis that substantial progress in artificial general intelligence (AGI) could result in human extinction or some other unrecoverable global catastrophe. It is argued that the human species currently dominates other species because the human brain has some distinctive capabilities that other animals lack. If AI surpasses humanity in general intelligence and becomes "superintelligent", then it could become difficult or impossible for humans to control. Just as the fate of the mountain gorilla depends on human goodwill, so might the fate of humanity depend on the actions of a future machine superintelligence. (en)
- Krisis eksistensial dari kecerdasan buatan adalah kekhawatiran bahwa kemajuan kecerdasan buatan (AI) suatu hari dapat mengakibatkan kepunahan manusia atau . Kekhawatiran ini didasarkan pada argumen bahwa manusia saat ini mendominasi spesies-spesies lainnya karena otak manusia memiliki kemampuan khusus yang tidak dimiliki oleh hewan-hewan lain. Jika kecerdasan buatan berhasil melampaui manusia dan menjadi sangat-sangat cerdas, maka kecerdasan buatan ini akan menjadi sangat kuat dan sulit untuk dikendalikan. Nasib gorila pegunungan saat ini bergantung kepada itikad baik dari manusia, dan mungkin suatu hari nanti nasib manusia juga akan bergantung pada kecerdasan buatan. (in)
|