إذا قام أي شخص ببناءها ، فإن الجميع يموتون مراجعة – كيف يمكن لمنظمة العفو الدولية أن تقتلنا جميعًا | كتب

ثقبعة إذا أخبرتك أنه يمكنني منعك من القلق بشأن تغير المناخ ، وكان كل ما عليك فعله هو قراءة كتاب واحد؟ رائع ، كما تقول ، حتى ذكرت أن السبب في أنك تتوقف عن القلق هو أن الكتاب يقول إن جنسنا لديه فقط بضع سنوات فقط قبل أن يتم القضاء عليه من قبل الذكاء الاصطناعى الممتاز على أي حال.
لا نعرف الشكل الذي سيتخذه هذا الانقراض بالضبط-ربما سيسمح لمنظمة العفو الدولية المتعطشة للطاقة لملايين محطات الطاقة فيوجن التي قامت بها ببناء الساخنة ، وتغلي المحيطات. ربما ترغب في إعادة تكوين الذرات في أجسادنا إلى شيء أكثر فائدة. يقول Eliezer Yudkowsky و Nate Soars في العديد من الاحتمالات ، كلهم تقريبًا سيئون. ولكن كما يمكنك أن تتنبأ بأن مكعب الثلج الذي تم إسقاطه في الماء الساخن سوف يذوب دون معرفة أي مكان سينتهي به أي من جزيئاته الفردية ، يمكنك أن تتأكد من أن الذكاء الاصطناعي أكثر ذكاءً من إنسان سيقتلنا جميعًا بطريقة ما.
هذا المستوى من الثقة نموذجي لـ Yudkowsky ، على وجه الخصوص. لقد كان يحذر من المخاطر الوجودية التي تشكلها التكنولوجيا لسنوات على الموقع الذي ساعد في إنشاؤه ، lesswrong.com، وعبر معهد أبحاث الذكاء الآلي ، أسس (Soares هو الرئيس الحالي). على الرغم من عدم التخرج من المدارس الثانوية أو الجامعة ، فإن يودوكوفسكي مؤثر للغاية في هذا المجال ، ومشاهير في عالم الشباب اللامعين يتجادلون مع بعضهم البعض عبر الإنترنت (وكذلك مؤلف كتاب 600000 كلمة عمل من المعجبين دعا هاري بوتر وطرق العقلانية). ملون ، مزعج ، الاستقطاب. “يصاب الناس بالاكتئاب سريريًا يقرؤون حماقتك” ، أعرب عن أسفه باحث يان ليكون خلال واحد بصق عبر الإنترنت. ولكن ، بصفته كبير العلماء في Meta ، من الذي يتحدث؟
وعلى الرغم من أن Yudkowsky و Soares قد يكونون غير تقليديين ، فإن تحذيراتهم تشبه تحذيراتهم من جيفري هينتون ، “عراب الذكاء الاصطناعي” ، ويوشوا بنغو ، عالم الكمبيوتر الأكثر استشادة في العالم، كلاهما اشترك في البيان أن “التخفيف من خطر الانقراض من الذكاء الاصطناعى يجب أن يكون أولوية عالمية إلى جانب المخاطر الاجتماعية الأخرى مثل الأوبئة والحرب النووية”.
كمكالمة Clarion ، إذا قام أي شخص ببناءها ، فإن الجميع يموت في توقيت جيد. لم يكن موجودًا بعد الذكاء الاصطناعي ، ولكن في أعقاب ثورة Chatgpt ، يتم حساب الاستثمار في مراكز البيانات التي من شأنها أن يتم احتسابها الآن بمئات المليارات. هذا يرقى إلى “أكبر وأسرع طرح تقنية للأغراض العامة في التاريخ” ، ” وفقا لجون ثورنهيل من FT. سوف تنفق Meta وحدها ما يصل إلى 72 مليار دولار (54 مليار جنيه إسترليني) على البنية التحتية لمنظمة العفو الدولية هذا العام ، وإنجاز سبرانايتينس هو الآن هدف مارك زوكربيرج الصريح.
ليست أخبارًا رائعة ، إذا كنت تعتقد أن يوديكوفسكي وسواريس. ولكن لماذا يجب علينا؟ على الرغم من تعقيد موضوعه ، إذا قام أي شخص ببناءه ، فإن الجميع يموتون واضحًا كما يصعب ابتلاع استنتاجاته. عندما تصبح المناقشات أكثر تقنية ، بشكل رئيسي في المقاطع التي تتعامل مع تدريب وهندسة النماذج من الذكاء الاصطناعى ، لا يزال الأمر واضحًا بما يكفي للقراء لفهم الحقائق الأساسية.
من بين هذه أننا لا نفهم حقًا كيفية عمل الذكاء الاصطناعي. في الماضي ، تم ترميز برامج الكمبيوتر يدويًا – تم تصميم كل جانب منها من قبل الإنسان. على النقيض من ذلك ، فإن أحدث النماذج ليست “مصنوعة” ، فهي “نمت”. نحن لا نفهم ، على سبيل المثال ، كيف ظهرت قدرة ChatGpt على التفكير من أنها تظهر كميات هائلة من النص الناتج عن الإنسان. حدث شيء غامض بشكل أساسي أثناء حضانةها. هذا يضع جزءًا حيويًا من عمل الذكاء الاصطناعي خارج سيطرتنا ويعني أنه ، حتى لو استطعنا دفعه نحو أهداف معينة مثل “كن لطيفًا مع الناس” ، لا يمكننا تحديد كيفية الوصول إلى هناك.
هذه مشكلة ، لأنها تعني أن الذكاء الاصطناعى سوف يولد حتما تفضيلاتها الغريبة وطرق القيام بالأشياء ، ومن غير المرجح أن تتوافق هذه الميولات الغريبة معنا. (هذا ، تجدر الإشارة إلى أنه منفصل تمامًا عن مسألة ما إذا كانت AIS قد تكون “عاطفية” أو “واعية”. إن اتخاذ أهداف ، وإجراءاتهم في الخدمة ، تكفي لإحداث سلوك خطير محتمل.) على أي حال ، فإن Yudkowsky و Soares تشير إلى أن شركات التكنولوجيا تحاول بالفعل بناء AIS التي تفعل الأشياء الخاصة بها ، لأن الأعمال التجارية لا تدفع أكثر من ذلك. إذا كانت الذكاء الاصطناعى “وكيل” مثل هذا هو الحصول على القدرة على تحسين نفسه ، فإن ذلك سيتجاوز القدرات البشرية بسرعة في كل مجال. على افتراض أن مثل هذا الذكاء الاصطناعي الممتاز يقدر بقاءه – لماذا لا ينبغي ذلك؟ – سيحاول حتما منع البشر من تطوير AIS المتنافسة أو إغلاقه. الطريقة الوحيدة المؤكدة للقيام بذلك هي الإغلاق نحن تحت.
ما هي الطرق التي ستستخدمها؟ يجادل Yudkowsky و Soares بأن هذه قد تتضمن تقنية لا يمكننا تخيلها بعد ، والتي قد تضربنا على أنها غريبة للغاية. يشبهوننا إلى Aztecs التي تشاهد السفن الإسبانية قبالة ساحل المكسيك ، والتي كان من الصعب تصورها فكرة “العصي التي يمكنهم الإشارة إليك لتجعلك تموت” – الملقب بندقية -.
ومع ذلك ، من أجل جعل الأمور أكثر إقناعا ، لديهم الذهاب. في الجزء من الكتاب الذي يشبه معظمهم الخيال العلمي ، وضعوا سيناريو توضيحي يتضمن الذكاء الاصطناعي الممتاز يسمى Sable. تم تطوير Sable من قبل شركة تقنية كبرى ، ينتشر عبر الإنترنت إلى كل ركن من أركان الحضارة ، وتجنيد المتواصل البشري من خلال النسخة الأكثر إقناعًا من ChatGpt يمكن تخيلها ، قبل تدميرنا بفيروسات اصطناعية وآلات جزيئية. إنها غريبة ، بالطبع – لكن الأزتيك كان سيقول الشيء نفسه عن المسك والكاثوليكية.
يقدم Yudkowsky و Soares قضيتهم مع قناعة أنه من السهل الخروج من هذا الكتاب جاهزًا لإلغاء مساهمات التقاعد الخاصة بك. إن بصيص الأمل الذي يقدمونه – وهو نظام كهربائي منخفض – هو أنه يمكن تجنب Doom إذا وافق العالم بأسره على إيقاف تطوير AI المتقدم في أقرب وقت ممكن. بالنظر إلى الحوافز التجارية والاستراتيجية ، والوضع الحالي للقيادة السياسية ، يبدو هذا غير مرجح قليلاً.
إن فتات الأمل التي نتركها نخبرها ، إذن ، هي مؤشرات على أنها قد لا تكون على حق ، إما حول حقيقة أن superintligence في طريقها ، أو أن خلقها يساوي إبادةنا.
من المؤكد أن هناك لحظات في الكتاب عندما تفوق الثقة التي يتم بها تقديم الحجة قوتها. مثال صغير: كتوضيح لكيفية تطوير AI على تفضيلات غريبة غريبة ، يقدم المؤلفون حقيقة أن بعض نماذج اللغة الكبيرة تجد صعوبة في تفسير الجمل دون توقف كامل. “الأفكار البشرية لا تعمل هكذا” ، يكتبون. “لن نكافح لفهم جملة انتهت بدون فترة.” لكن هذا ليس صحيحًا حقًا ؛ غالبًا ما يعتمد البشر على علامات في نهاية الجمل من أجل تفسيرها بشكل صحيح. نتعلم اللغة عبر الكلام ، لذلك ليسوا نقاطًا على الصفحة ولكن “إيجابي“ميزات مثل التجويد: فكر في الفرق بين النغمة المتزايدة والسقوط في نهاية عبارة مثل” قال إنه قادم “. إذا كانت الذكاء الاصطناعى المدربين على النص يميل بشدة على علامات الترقيم لمعرفة ما يجري ، فإن ذلك يدل على أن عمليات تفكيرها مماثلة ، وليس غريبة ، على الإنسان.
وبالنسبة للكتاب غارق في الثقافة العقلانية في Lesswrong ، يظهر Yudkowsky و Soares أكثر من لمسة من تحيز التأكيد. “التاريخ” ، يكتبون ، “مليء … أمثلة على المخاطر الكارثية التي يتم تقليلها وتجاهلها” ، من البنزين المحترم إلى تشورنوبيل. ولكن ماذا عن توقعات المخاطر الكارثية التي أثبتت خطأها؟ التاريخ مليء هؤلاء ، أيضًا ، من نهاية العالم في Malthus إلى Y2K. yudkowsky نفسه ادعى ذلك مرة واحدة تقنية النانو ستدمر الإنسانية “في موعد لا يتجاوز عام 2010”.
المشكلة هي أنه يمكنك أن تكون واثقًا من واثقًا ، وغير متسق ، ومتحملة التسلسلية ، ولا تزال على حق. من المهم أن نكون على دراية بمنطقنا المتحمس عند النظر في الحجج المقدمة هنا ؛ لدينا كل حافز لكفرهم.
وعلى الرغم من أنه لا يمثل الإجماع العلمي ، إلا أن هذا مجال سريع التغير ، غير مفهوم. ما يشكل الذكاء ، ما الذي يشكل “سوبر” ، سواء كان الذكاء وحده يكفي لضمان الهيمنة العالمية – كل هذا يناقش بشدة.
في الوقت نفسه ، فإن الإجماع الموجود ليس مطمئنًا بشكل خاص. في مسح 2024 من 2778 باحث من الذكاء الاصطناعي ، وضع متوسط الاحتمال في “النتائج السيئة للغاية ، مثل الانقراض البشري” كان 5 ٪. والأمر الأكثر إثارة للقلق ، “بعد أن فكرت أكثر (إما” كثيرًا “أو” الكثير “) حول السؤال ، ارتبط بمتوسط 9 ٪ ، بينما كان التفكير” القليل “أو” القليل جدًا “مرتبطًا بمتوسط 5 ٪”.
كان يوديكوفسكي يفكر في مشكلة معظم حياته البالغة. حقيقة أن تنبؤه يجلس شمال 99 ٪ قد يعكس نوعًا من الأحادي الهستيري ، أو ارتباط شامل بشكل خاص بالمشكلة. مهما كان الأمر ، يبدو أن كل شخص لديه اهتمام بالمستقبل يواجهون قراءة ما يقوله هو و Soares.