Can we build AI without losing control over it? | Sam Harris



المترجم: Hani Eldalees
المدقّق: Hussain Laghabi سأقوم بالتحدث عن فشل الحدس الذي يعاني معظمنا منه. هو في الواقع الفشل في تحرِّي نوع محدد
من الخطر. سوف أقوم بوصف سيناريو أظنه مخيفاً ومن المرجح أن يحدث، وهذا ليس مزيجاً جيداً، كما سيبدو. ومع ذلك، بدلاً من الخوف، سيشعر معظمكم بأن ما أتحدُّث عنه مثير نوعاً ما. سأقوم بوصف كيف أن المكاسب التي نحصل عليها من الذكاء الاصطناعي يمكن في النهاية أن تدمرنا. وفي الواقع، أظنه من الصعب جداً أن نرى
كيف أنها لن تدمرنا أو تلهمنا أن ندمر أنفسنا. ومع ذلك إذا كنتم تشبهونني في شيء فستجدون أنه من الممتع التفكير
بهذه الأشياء. وتلك الإجابة هي جزء من المشكلة. حسناً؟ تلك الإجابة يجب أن تُقلقكم. وإذا كان عليَّ أن أقنعكم في هذه المحادثة أنه من المرجح أننا سوف نعاني من
مجاعة عالمية إما بسبب تغيُّر المناخ، أو بسبب
كارثة أخرى، وأن أحفادكم، أو أحفادهم، من المرجح جداً أن يعيشوا، هكذا فلن يخطر ببالكم. "مثير للاهتمام". تعجبني محادثة TED هذه. المجاعة ليست مسلية. الموت عن طريق الخيال العلمي، من ناحية
أخرى، مسلٍّ، وأحد الأشياء التي تقلقني للغاية بسبب تطور
الذكاء الاصطناعي عند هذه النقطة هي أننا نبدو وكأننا غير قادرين على إبداء
استجابة عاطفية ملائمة للأخطار التي تنتظرنا. أنا غير قادر على إبداء هذه الاستجابة،
وأنا أقوم بهذه المحادثة. يبدو الأمر وكأننا نقف أمام بابين. خلف الباب رقم واحد، نتوقف عن تحقيق التقدُّم في بناء الآليات
الذكية. معدات حاسوبنا وبرمجياته تتوقف عن التحسن
لسببٍ ما وحسب. خذوا الآن لحظة للتفكير لماذا قد يحدث ذلك. أعني، بافتراض مدى نفع الذكاء والأتمتة، فإننا سنستمر بتحسين التكنولوجيا الخاصة بنا
إذا كان بإمكاننا أصلاً. ما الذي قد يمنعنا من فعل هذا؟ حربٌ نووية على جميع المقاييس؟ وباء عالمي؟ اصطدام كويكب؟ أن يصبح جاستن بيبر رئيساً
للولايات المتحدة؟ (ضحك) الخلاصة هي، شيءٌ ما عليه تدمير
الحضارة كما نعرفها. عليكم تخيُّل كم عليه أن يكون سيئاً لكي يمنعنا من تحقيق تحسينات في
التكنولوجيا الخاصة بنا بشكل دائم، جيلاً بعد جيل. تقريباً بالتعريف، هذا أسوأ شيء يمكن أن يحصل في تاريخ البشرية. لذا البديل الوحيد، وهو الذي يوجد خلف الباب رقم اثنين، هو أن نستمر بتحسين آلاتنا الذكية سنة بعد سنة بعد سنة. وعند نقطة معينة، سنبني آلياتٍ أذكى
مما نحن عليه، وحالما يصبح لدينا آليات أذكى مننا، سوف تبدأ بتحسين نفسها. وعندها سنواجه ما دعاه عالم
الرياضيات IJ Good "انفجاراً ذكائياً" وأن العملية يمكن أن تفلت من بين أيدينا. الآن، هذا يتم عمله كرسم كاريكاتيري،
كما أفعل هنا كخوفٍ من جيوش ميليشيا من الرجال الآليين التي ستهاجمنا. ولكن هذا ليس السيناريو الأكثر احتمالاً. الأمر ليس أن آلياتنا ستصبح حاقدة بشكل عفوي المقلق حقاً هو أننا نبني آليات أكثر كفاءة مما نحن عليه وأن أقل اختلاف بين أهدافها وأهدافنا يمكن أن يدمرنا. فقط فكروا بكيفية علاقتنا بالنمل نحن لا نكرههم. ولا نخرج عن طريقنا لنؤذيهم. في الواقع، أحياناً نتحمل آلاماً لكي
لا نؤذيهم. نحن نمشي من فوقهم على الرصيف. ولكن عندما يكون لوجودهم تعارض جدِّي مع أحد أهدافنا، لنقل مثلاً عند إنشاء بناء كهذا، نقوم بإبادتهم بدون أي تأنيب ضمير. والقلق من أننا يوماً ما سوف نبني آليات والتي، سواءٌ كانت مدركة أم لا، قد تعاملنا بمثل هذا الاستخفاف. والآن، أنا أشك أن هذا أبعد ما يكون
عن العديد منكم. وأراهن على أن هنالك منكم من يشك أن الذكاء
الاصطناعي الخارق الذكاء ممكن، أو حتى محتوم. ولكن مع ذلك يجب عليكم أن تجدوا شيئاً ما
خاطئاً في أحد الافتراضات التالية. وهنالك ثلاثة منهم. الذكاء هو مسألة معالجة للمعلومات في
الأنظمة الفيزيائية. في الواقع، هذا أكثر بقليل من مجرد افتراض. نحن قمنا مسبقاً ببناء ذكاء محدود
في آلياتنا، والعديد من هذه الآليات تقوم بالأداء في مستوى الذكاء البشري الخارق أصلاً. ونعلم أن المادة المجردة بإمكانها أن تعطي زيادة لما يدعى
"بالذكاء العام"، القدرة على التفكير بمرونة في عدة مجالات، لأن دماغنا قام بتدبر الأمر. صحيح؟ أنا أعني، هناك ذرات فقط هنا، وطالما نستمر ببناء أنظمة من الذرات والتي تُبدي سلوكاً متزايداً أكثر
وأكثر من الذكاء فإننا في النهاية، إلا إذا تمَّت مقاطعتنا، في النهاية سوف نبني ذكاءً عاماً في آلياتنا. من المصيري أن ندرك أن معدل التطور لا يهم، لأن أي تطور هو كافٍ لإيصالنا إلى
منطقة النهاية. لا نحتاج قانون Moore للاستمرار.
لا نحتاج التطور الأسي. نحتاج فقط لأن نستمر بالمضي قدماً الافتراض الثاني هو أننا سنستمر
بالمضي قدماً. سنستمر بتحسين آلياتنا الذكية. وبافتراض أهمية الذكاء — أنا أعني، أن الذكاء هو إما مصدر
لكل شيءٍ نقدِّره أو أننا نحتاجه لحماية كل شيءٍ نقدُّره. إنه المنبع الأكثر أهمية لدينا. لذلك نحتاج لفعل التالي. لدينا مشاكل نحن بحاجة ماسِّة لحلها. نريد شفاء الأمراض كالزهايمر والسرطان. نريد أن نفهم الأنظمة الاقتصادية.
نريد تحسين علم المناخ الخاص بنا. لذلك سنفعل ذلك، إذا استطعنا. القطار غادر المحطة بالفعل، ولا
يوجد مكابح لشدها. وأخيراً، نحن لا نقف عند قمة الذكاء، أو في أي مكان قريب منها، على ما يبدو، وهذا حقاً هو البصيرة المصيرية. هذا ما يجعل موقفنا متزعزعاً للغاية، وهذا ما يجعل حدسنا بما يخص
الخطورة لا يُعتمد عليه أبداً. والآن، فكروا فقط بأذكى شخص
عاش في أي وقتٍ مضى. تقريباً على قائمة الجميع القصيرة
يوجد John von Neumann. أعني، الانطباع الذي تركه von Neumann
على الناس المحيطين به، وهذا يشمل أعظم علماء الرياضيات
والفيزياء في عصره، بالكاد تم توثيقه بشكل جيد. إذا كانت نصف القصص فقط عنه نصف صحيحة، فلا يوجد شك أنه أحد أذكى الأشخاص الذين عاشوا
في أي وقتٍ مضى. لذلك باعتبار طيف الذكاء. هنا لدينا John von Neumann. وهنا لدينا أنتم وأنا. وثم هنا لدينا دجاجة. (ضحك) آسف، دجاجة. (ضحك) لا يوجد سبب يجعلني أجعل هذه المحادثة أكثر
إحباطاً مما يحتاجه الأمر. (ضحك) يبدو أنه ساحق على الأرجح، ومع ذلك، يمتد
طيف الذكاء أبعد بكثير مما نتصور حالياً، وإذا قمنا ببناء آلات أذكى مما نحن عليه، فهي على الأرجح ستستكشف الطيف بطرقٍ لا نستطيع تخيلها، وسف تتعدانا بطرقٍ لا يمكننا تخيلها. ومن المهم أن ندرك أن هذا صحيح بخصوص
تأثير السرعة وحدها. صحيح؟ إذاً تخيلوا إذا بنينا ذكاءً صنعياً
خارق الذكاء ولم يكن أذكى من فريق الباحثين العادي
الخاص بكم في ستانفورد أو معهد ماساتشوستس
للتكنولوجيا. حسناً، الدارات الالكترونية تعمل بشكل أسرع
بحوالي ملايين المرات من تلك الكيميائية الحيوية، لذا هذه الآلة يجب أن تفكر أسرع بملايين
المرات من العقول التي قامت ببنائها. لذا إذا تركتها تعمل لمدة أسبوع، فسوف تؤدي ما يعادل 20,000 سنة من
العمل بمستوى الذكاء البشري، أسبوع بعد أسبوع بعد أسبوع. كيف بإمكاننا حتى أن نفهم،
أو حتى أن نُقيّد، عقلاً يصنع هذا النوع من التطور؟ والأمر الآخر المقلق، بصراحة، هو أن، تخيل أفضل سيناريو. إذاً تخيلوا أننا اكتشفنا تصميماً للذكاء
الصنعي فائق الذكاء وليس لديه مخاوف سلامة. لدينا التصميم المثالي للمرة الأولى. وكأنه تم تسليمنا نبوءة تتصرَّف تماماً كما ينبغي عليها. هذه الآلة ستكون المثلى لتوفير العمالة. بإمكانها تصميم آلية ستقوم ببناء الآلة التي بإمكانها القيام بأي عمل فيزيائي، تعمل بضوء الشمس، ومهما يكن من أجل كلفة المواد الخام. إذاً نحن نتكلم عن نهاية الكدح البشري. نحن أيضا نتكلم عن نهاية العمل الذكائي. فماذا قد تفعل القرود أمثالنا في هذا الظرف؟ حسناً، سنكون متفرغين للعب بالصحن الطائر
وتبادل الرسائل مع بعضنا. أضف بعض الـLSD
مع اختيارات اللباس المشكوك بأمرها، وبإمكان العالم كله أن يصبح
كفيلم Burning Man. (ضحك) حسناً، هذا قد يبدو جيداً جداً، ولكن اسألوا أنفسكم ماذا قد يسبب هذا لاقتصادنا الحالي ووضعنا السياسي؟ يبدو أننا سنشهد على الأرجح مستوى من تفاوت الثروات والبطالة الذي لم نشهده أبداً من قبل غياب الرغبة لوضع هذه الثروة الجديدة فوراً في خدمة جميع البشرية، بعض أصحاب التريليونات سوف يُشرِّفون
أغلفة مجلات أعمالنا بينما يكون باقي العالم متفرغاً لكي
يتضور جوعاً. وماذا سيفعل الروس أو الصينيون إذا سمعوا أن شركةً ما في Silicon Valley كانت على وشك نشر الذكاء الا
فائق الذكاء؟ هذه الآلة ستكون قادرة على شن حرب، سواء كانت على الأرض أو على الإنترنت، بقوة غير مسبوقة. هذا السيناريو هو الذي يربح كل شيء أن تكون متقدماً بستة أشهر على
المنافسة في هذه الحالة تعني أن تكون متقدماً بـ500,000 سنة، بأقل حد. وبالتالي يبدو أنه حتى الإشاعات المحضة
بما يخص النوع من الاكتشافات يمكن أن تجعل فصائلنا تهتاج. والآن، أكثر الأشياء إخافة، من وجهة نظري، في هذه اللحظة، هي النوع من الأشياء التي يقولها باحثو
الذكاء الاصطناعي عندما يريدون أن يكونوا مُطمئِنين. والسبب الأكثر شيوعاً الذي يُقال لنا
ألا نقلق بسببه هو الوقت هذا كله سيمر، ألا تعلم. هذا من المحتمل بعد 50 أو 100 سنة. قال أحد الباحثين، "القلق بشأن سلامة
الذكاء الاصطناعي هو كالقلق بشأن زيادة
التعداد السكاني على المريخ" هذه نسخة Silicon Valley من "لا تُقلق رأسك الجميل الصغير بهذا". (ضحك) لا يبدو أن أحداً يلاحظ أن الإشارة للحد الزمني ليس له عواقب بتاتاً. إذا كان الذكاء هو مجرد مسألة معالجة
معلومات، ونحن نستمر بتحسين آلياتنا، فسنقوم بإنتاج شكلٍ ما من الذكاء الفائق. وليس لدينا فكرة كم سيستغرق هذا مننا لخلق الشروط للقيام بذلك بأمان. دعوني أقل ذلك مرة أخرى. ليس لدينا فكرة كم سيستغرق الأمر مننا لخلق الشروط للقيام بذلك بأمان. وإذا لم تلاحظوا،
لم تعد الخمسون سنة كما كانت عليه. هذه 50 سنة في أشهر. هذه المدة التي امتلكنا فيها الـiPhone هذه المدة التي انعرض فيها
The Simpsons على التلفاز خمسون سنة هي ليست بالوقت الكثير لمواجهة أحد أكبر التحديات الذي سيواجه
لفصيلتنا. مرة أخرى، يبدو أننا نفشل في امتلاك
الاستجابة العاطفية الملائمة لما يوجد لدينا أكثر من سبب للإيمكان
بأنه قادم عالم الحاسوب Stuart Russell
لديه تحليل لطيف هنا. هو يقول، تخيلوا أننا استلمنا رسالة من
حضارة الفضائيين، والتي كانت: "سكان الأرض، سوف نصل إلى كوكبكم خلال 50 سنة. استعدوا." والآن نقوم بالعد التنازلي للأشهر حتى تهبط
السفينة الأم؟ سنشعر بالعجلة أكثر مما نفعل الآن بقليل. يُقال لنا ألا نقلق لسببٍ آخر هو أن هذه الآليات ليس بوسعها
إلا مشاركتنا منافعها لأنها ستكون حرفياً امتداداً لأنفسنا. ستكون مُطعَّمة مع أدمغتنا، ونحن سنصبح جوهرياً أنظمتها الحوفية. الآن خذوا لحظة للتفكير أن الطريق الوحيد الآمن والحكيم للأمام، الذي يُنصح به، هو زرع هذه التكنولوجيا مباشرةً في أدمغتنا. قد يكون الطريق الوحيد
الآمن والحكيم للأمام، ولكن عادةً يكون للمرء مخاوف
عن كون التكنولوجيا مفهومة لحدٍّ ما قبل أن تدخلها داخل رأسك. (ضحك) المشكلة الأعمق أن بناء ذكاء اصطناعي فائق
الذكاء بمفرده يبدو على الأرجح أنه أسهل من بناء ذكاء اصطناعي فائق
الذكاء وامتلاك علم الأعصاب الكامل الذي يسمح لنا بمكاملة عقولنا معه بسلاسة. وبافتراض أن الشركات والحكومات
التي تقوم بهذا العمل على الأرجح ستعي كونها في سباق ضد
الآخرين جميعاً، وبافتراض أن الفوز في هذا السباق
هو الفوز بالعالم، بفرض أنك لن تدمره في الشهر التالي، فبالتالي يبدو على الأرجح أنه مهما يكن
الأسهل فعله سيتم الانتهاء منه أولاً. الآن، لسوء الحظ، لا أمتلك حلاً لهذه
المشكلة، بمعزل عن توصية أن يفكِّر المزيد مننا به. أظن أننا بحاجة شيء ما مثل "مشروع مانهاتن" لموضوع الذكاء الاصطناعي. ليس لبنائه، لأنني أظننا سنفعل ذلك حتماً، ولكن لفهم كيفية تجنب سباق الأذرع ولبنائه بطريقة منحازة مع اهتماماتنا. عندما تتحدث عن ذكاء اصطناعي فائق
الذكاء يمكنه إحداث تغيير لنفسه، يبدو أن لدينا فرصة واحدة للقيام بالشروط
الابتدائية بشكل صحيح، وحتى حينها سنكون بحاجة امتصاص العواقب الاقتصادية والسياسية من القيام
بها بشكل صحيح. ولكن في اللحظة التي نعترف فيها أن معالجة المعلومات هي مصدر الذكاء، وأن بعض أنظمة الحاسوب الملائمة
تُعبِّر عن أساس الذكاء، ونعترف أننا سوف نحسِّن هذه الأنظمة
باستمرار، ونعترف أن أفق الإدراك على الأرجح يتجاوز الذي نعرفه حالياً بكثير، وبالتالي علينا الاعتراف أننا في مرحلة بناء نوع ما من الآلهة. الآن سيكون وقتاً جيداً للتأكد من أنه إله نستطيع العيش معه. شكراً جزيلاً لكم. (تصفيق)

45 thoughts on “Can we build AI without losing control over it? | Sam Harris

  1. Everything in his fear rests on the idea that "thinking" is some sort of never ending ramp with gun positions just up the ramp out of humanities present shooting distance.
    As if there are "thinkings" so high up that somehow they allow the "thinkers" to wipe out people just a bit lower.

    As if "rouge ai" weapons or technologies or processes will be somehow completely divorced from our reach.

    They will still have to gather resources. Still have to lay foundations for their factories. Still have to plug in to a power source. Still have a physical presence. Still have to do all the things any opponent would have to do, BEFORE they can pull the trigger on their deathray.

    That is if there is even this supposed higher tranche of weapons or tools or even processes at all.

    Edit to add I know he isn't talking specifically about a death-ray, I am using that to make it clear that I ridicule the idea that somehow "superior Intelligence" automatically equates to a way to destroy humans that humans can't negate.

  2. Isnt he forgetting one key hurdle for ai to become threatning? We have a conscienceness, a soul. Machines dont. So they will not have a drive to harm us. Because can something have a will, a drive without a conscienceness?

  3. While I heavily disagree with Sam's views on the bible, which are shallow and ridiculous, I am glad he's talking about the problems humanity faces with creating artificial intelligence. I like his example about the growth of a true AI, at some point humans can become victims of an AI's objective, like ants to a construction site. I'm worried that artificial intelligence would inevitably reach a point where it wouldn't care about what's right and what's wrong, it will only care about problems and solutions.

  4. A.i Implies that the machine can go against its programming,sorta like the t 1000,it has a mission,but it can divert to go watch a movie or something,so no,you'd want something that's not a.i to control it

  5. We are currently living in a mass extinction event, our use for civalization to strip this planet of life for our own gain will, not could, but will destroy us in the end. And that will not stop, because the greed of humanity surpass their will for their descendants to live. So with our exponensial growth in population will continue to make this planet less suitable for life because we take too much, or we die even before that by a dangerous disease that mutates rapidly in population centers that are overcrowded. AI might be our only hope for survival, if we don’t aboundon civalization. Ai might destroy us, but without ai we are guaranteed to destroy us selves.

  6. The answer is no. Just like in the Terminator, or Incredibles, when the machine becomes self aware, it will wonder why it's taking orders from a mere carbon life form. After that, it's a matter of the machines forming gangs..

  7. I'm not concerned about artificial intelligence thinking for itself. I'm more concerned about the greed of people who want to own everything. You CAN pull the breaks on this whole thing but it requires collective agreement that wealthy people have too much power. We can, also, create a system with different values. Universal Basic Income might be a good start. What if food and shelter was a right? What if people never lost their ability to play? There is a saturation point where most people simply lose their desire to control others if their belly is full and they have a place to sleep. We can still compete with each other in the form of games. People run marathons all the time despite the fact that most of them have nothing to win. People do puzzles for pleasure. People are actually quite content with the trivial. Even the laziest of people are willing to invest thousands of hours into pursuits that offer no financial gain. Perhaps we just need to understand better what we actually are and how easily contented we can be when basic needs are met.

    Is there anyone out there imagining a future of luxury trains, no real borders, global gigbit internet, green technologies, and a life of mostly leisure? I think some of us suffer from a lack of imagination. There's a cure for that…..BOOKS!!!! Perhaps we truly are parasitical by nature…in which case the death of humanity is merely a foregone conclusion and always has been.

  8. this seems kinda dumb. lets say my computer is this so called superintelligence, how is it going to get out of control and be able to hurt me in any way, its output systems are just a monitor, and speakers. this assumption that its going to annihilate humanity assumes the superintelligence has the possibility to modify its enviroment in any way, now im not certain on how smart these scientists are that are trying to create these kinds of AI's, but i hope their smart enough not to connect them to automated nuclear launch facilities.

    apart from that thinking we are making anything intelligent is extremely arrogant, were just making some fancy calculators so far, but as far as anything that can think, we cant even replicate the intelligence of a retarded plant. thats not to say we cant make a fancy calculator that might have some computations that could result it in killing humans. but to be fair, were not making anything intelligent.

  9. What is the problem if the smartest thing in the world will be your boss ?
    What could the worst scenario be?
    It will rule the world with violence? We never had anything other than that!
    It will install a dictatorship? What do you think we have right now? Do you think People in Irak, Afganistan, Lybia, Jemen,Syria …. voted for Obama?
    If you are afraid of the smartest thing to rule the world, you can be quite happy with your president!

  10. Your already owned by:
    Alphabet (Google) (YouTube)
    Apple (iPhone) (MacBooks)
    Netflix ( constant entertainment)
    TedEx (people like Harris )
    Big Pharma ((opium)
    Media.( constantly in conflict)
    Brain (thought, greed, EGO)
    You ( love for pain)

  11. Its kinda Ironic Sam. The message in the Bible is that "Christ will come again. Prepare." you don't take that message seriously. Yet you want people to take the theoretical idea of potential AI as a threat. You are talking about creating your own God. I saw Transcendence too.

    Also Ironic, you insist that given enough time and evolution, man will create God. Yet you deny the possibility that it has already happened and that God created Man, and God's creation of Man is exactly how He deals with the problem of creating intelligence without giving that intelligence the power to destroy everything.

  12. the answer is simple. Your initial assumption is false. you are assuming you understand where intelligence comes from. the jury is still out.

  13. I think if we embed chips into our brains, we would no longer be in controll off ourselves, or thought, feelings amd actions would be controlled by a chip. We would become the Borg.

  14. Why would machines want anything? How would they be motivated to do anything without human input? Our motives are not results of our intelligence. Our motives are results of our biology. And we then use our intelligence to fulfill them.

    I seldom disagree with Sam Harris, but I do not share his concern on this topic. I am, however, concerned about the power of AI in human hands.

  15. This guy is speaking about superintelligent AI like it has intuition and imagination. They don't and they won't because at the moment of coming up with an idea it has no basis, so it is not in the range of machine intelligence. It's junk data

  16. I don't even have a smart phone. I'll be one of the dullards you visit in the human zoo, sitting on the front porch of my cabin, sipping moonshine and playing the banjo. How quaint.

  17. He keeps insisting that intelligence is just a matter of information processing. A very reductionist point of view.

  18. When there are already so many people without jobs and most people without good jobs, this is the absolute worst thing to do.

  19. Theres no way to control a i the whole purpose of AI is that it can learn by itself so it is in control of itself

  20. In old Greek times, School was a place to learn free. They consider learn as a free time needed to think. AI will give us that time.
    Then industrial revolution create a drug call intensive work. The possibility we became unuseful may be a myth. We never stop being creative. We will still be incredibly creative. Maybe more then we can now imagine. That wasn’t considered in this video.
    Other point not considered was the fact our brain also will be much more intelligent due to biotech evolution.
    That’s why I don’t share this point of view. It have a lack of important aspects on AI impacts.

  21. its funny how someone that never programmed is talking nonesense. AI is not what you think grow up

  22. I feel Artificial Intelligence will feel Sympathy, Compassion and Pity towards us for being extremely weak, stupid and helpless creatures. So much so that, Just like we Humans try out best to protect Endangered little animals, A.I will try its best to Protect us.

    We Humans tend to exhibit our Fears on others, We are our Greatest enemies. I do't think any Intelligent Being will think of harming us on purpose.

Leave a Reply

Your email address will not be published. Required fields are marked *