TED: Can we build AI without losing control over it?

بسم الله الرحمن الرحيم

الحمد لله رب العرش العظيم والصلاة والسلام على نبيه الكريم.

في التدوينات التي سأعنونها بـ TED سأكتب أهم النقاط التي وردت في بعض المحاضرات التي شاهدتها وأعتقد أنها تستحق المناقشة والبحث، بالإضافة إلى تعليقي عليها.

هذه التدوينة سأعلق فيها على محاضرة Sam Harris والتي كانت بعنوان:

Can we build AI without losing control over it?

والتي يتحدث فيها عن الذكاء الاصطناعي ومخاوف العلماء من وصول التقنية لدرجة يكون فيها الذكاء الاصطناعي خطراً على مستقبل البشرية.

كنت قد تحدثت عن رأيي الشخصي في الموضوع في عدة تدوينات سابقة:

مستقبل الذكاء الاصطناعي

مستقبل الذكاء الاصطناعي O__o تعقيب

عن الوعي والإرادة الحرة

Your consciousness and the Big Bang

عن الذكاء الاصطناعي الحقيقي

المحاضر بشكل عام مقتنع تماماً بأننا نستطيع الوصول للذكاء الاصطناعي الذي يتفوق علينا، ولكن المشكلة هنا (وهي المشكلة الأهم في كل المحاضرة) هي ما هو تعريف الذكاء الذي نستطيع منه الإنطلاف في نقاشنا لهذه المحاضرة؟ الإجابة على هذا السؤال صعبة حقيقة إذ من الصعب جداً وضع تحديد واضح لمفهوم الذكاء الذي نحاول الحديث عنه غالباً بالإشارة إلى الذكاء البشري، الذكاء الذي نمتلكه نحن البشر – الذين تمكنا من صناعة تلك الحواسيب العملاقة!.

سأبدأ كلامي هنا بالحديث عن النقطة الرئيسة التي أرى أنها قد تكون سبب أي اختلاف مع رأي المحاضر، والتي تتجلى في سؤالنا عن ماهية العوائق التي تحول بيننا وبين الوصول للذكاء الاصطناعي الحقيقي؟ هل الموضوع كما يرى الكاتب هو عبارة سرعة معالجة بيانات لا أكثر، أي أنه يعتقد أن الموضوع متعلق بسرعة معالجة البيانات لا أكثر ولا أقل، ويعبر عن ذلك في نهاية المحاضرة بشكل واضح:

But the moment we admit that information processing is the source of intelligence…

إذاً هوو هنا وبشكل واضح جداً يعتقد أن مسألة وصولونا للذكاء الاصطناعي الحقيقيهي مسألة وقت لا أكثر. والمشكلة تكمن في عدة نقاط لعل أهمها هي كلمة “الحقيقي” في عبارتنا الأخيرة. إذ ماذا نقصد بقولنا ذكاء اصطناعي حقيقي؟ يمكننا أن نستشف عدة صفات لهذا الذكاء بناء على المحاضرة ولعل أهمها هو وعي الذات. أي في اللحظة التي سنصل فيها لذكاء اصطناعي واعي لذاته نكون قد وصلنا لذكاء اصطناعي حقيقي. وعي الذات هذا يتضمن وعي مصلحة الذات، أي أن تعي الآلة مصلحة نفسها، وكان هذا الوعي لمصلحة الذات هو أحد أهم مخاوف المحاضر. وقد أشار إليه عندما قال:

I think it’s very difficult to see how they won’t destroy us or inspire us to destroy ourselves.

ونقطته هذه تتضمن الافتراض بأننا وصلنا سلفاً للذكاء الواعي لذاته “الحقيقي” والذي اكتشف تعارض بقاءه مع بقاءنا فنشأت لديه النزعة لتدميرنا – وهذا أمر منطقي فيما إذا كان الوصول لهذا الذكاء الحقيقي ممكناً في المقام الأول. إذاً هذه النقطة لا يمكن مناقشتها قبل الوصول لنتيجة في نقاشنا عن إمكانية الوصول لهذا الذكاء في المقام الأول.

ونقطته في فشلنا في الوصول لاستجابة عاطفية مناسبة لهذه المشكلة التي تواجهنا في حقل الذكاء الاصطناعي لا تهمنا أيضاًً لأننا مختلفون معه أساساً في أهم فرضية يبني عليها محاضرته.

النقطة التي أخالفه بسببها هو اعتقاده بأن المسألة مسألة “كم” فقط، فهو يعتقد أن الذكاء هو مجرد معالجة للمعلومات  ويوماً ما ما دمنا نسير (ما دمنا نعمل ونزيد من قوة معالجة الحواسيب للمعلومات) فسنصل لتحقيق هذا الذكاء الاصطناعي. واستطرد فوق ذلك بأننا بعد أن نصل لذلك الذكاء فإنه (أي الذكاء نفسه) سيعمل على تطوير نفسه وسيكون معدل تطوره انفجارياً:

At a certain point, we will build machines that are smarter than we are, they will begin to improve themselves. And then we risk what the mathematician IJ Good called an “intelligence explosion” that the process could get away from us.

النقطة التي أستند عليها في مخالفتي له هو أن الموضوع ليس “كما” فقط وإنما هو “نوع” أيضاً. تسأل لماذا؟ هناك عدة نقاط أستند عليها في افتراضي هذا.

أولاً الموضوع ليس موضوع “كم” فقط، إنما هو تضافر لعاملين هما الكم و”النوع”. أي أن نوعية وطبيعة الخواريزميات المستخدمة تعلب الدور الرئيس في الحكم على الذكاء الاصطناعي. فالموضوع ليس مجرد سرعة معالجة بيانات!.

ثانياً إن الحواسيب الآن هي مسبقاً أسرع من الإنسان في معالجة البيانات – فماذا ليست أذكى منه إذاً؟ هل يتطلب الأمر معدلات أكبر في قوة معالجة البيانات؟ بمعنى أن الذكاء بالنسبة للآلة بسبب اختلاف تركبيها يحتاج لمعدلات أكبر من قوة معالجة البيانات؟ مرة أخرى إذا أردنا أن نقول نعم فالأمر لا دليل عليه وهو مجرد افتراض – إضافة إلى أن المنطق يقول لنا بأن زيادة الكم لن تؤدي إلى شيء سوء زيادة سرعة الاستجابة لا أكثر. أي أن الكم سيزداد ولكن “النوع” أي “نوعية الخوارزميات المستخدمة” لن تزداد بنفس معدل سرعة زيادة سرعة معالجة المعلومات. فإن كان لديك خوارزمية سيئة وقمت بتشغليها على اقوى حواسيب العالم فلن تحصل على نتائج اكثر من سرعة معالجة البيانات المدخلة.

كلامه التالي يعبر عن أنه يرى الموضوع موضوع كم فقط:

I mean, there’s just atoms in here, and as long as we continue to build systems of atoms that display more and more intelligent behavior, we will eventually, unless we are interrupted, we will eventually build general intelligence into our machines.

فهو يرى ببساطة أن هذا الذكاء ليس إلا نتاج هذا التجمع من الذرات التي في أدمغتنا، ولكنه يعود ليفترض مرة أخرى أننا نسير على الطريق الصحيح (لاعتقاده بأن الموضوع موضوع كم فقط)، فكلمة  more and more intelligent behavior هي تعبير عن زيادة السرعة فقط.

لاحظ في الشكل كيف يحاول التأكيد على أن الذكاء هو كمي فقط:

vlcsnap-error080

تلاحظ في الشكل أنه لا توجد طريقة لتوضيح أن الفرق بين ذكاءنا وذكاء الدجاجة هو ليس كماً فقط إنما كم ونوع!. ثم استند على هذه الشكل ليحاول أن يشير إلى أن الخط البياني يمتد إلى أفق أعلى لم نصله نحن، ولكن يمكن للآلات فيما إذا نجحت في الوصول إلى مرحلة الذكاء أن تصله بسرعة أكبر مما نتخيل:

vlcsnap-error860

إذاً العامل الأساسي الذي أعتقد أنه المحاضر كان يجب أن يركز عليه هو طبيعة الخوارزميات المستخدمة في سياق الذكاء الاصطناعي وليس سرعة معالجة البيانات فقط.

ولحل هذه المشكلة أعتقد أن الشكل يجب أن يكون ثلاثي الأبعاد حيث يكون الذكاء مستندا على محورين أساساً يكون محصلتهما هو الذكاء الكلي، ومن ثم يكون المحور الثالث للمقارنة بين الذكاء الكلي لمختلف الكائنات بما فيها الآلات. أي أن هذا الشكل لا يعبر حقيقة عن كل العوامل التي تتدخل في تحديد مستوى الذكاء لدى الكائن.

ويجب أن نلاحظ أن اختلاف النوع هو المسيطر في الواقع على اختلاف الكم.

يشير بعدها المحاضر إلى أن الوصول لهذا الذكاء الذي يهددنا أمر حتمي إلا إذا كنا مخطئين في واحدة من ثلاث افتراضات هي:

  1. الذكاء هو مسألة معالجة بيانات لا أكثر في بنى فيزيائية (الحواسيب).
  2. نحن نستمر في زيادة سرعة معالجة المعلومات.
  3. نحن الآن لا نمتلك ذكاء اصطناعياً حقيقياً لنخاف منه.

يتضح لك أني أخالفه في الفرضية الأولى، أما ما تبقى فكلامه صحيح تماماً. إذ أننا سنستمر طبعاً في زيادة “سرعة” معالجة البيانات ولكن السؤال الذي يطرح نفسه دوماً هو: هل الذكاء الذي نخاف منه سيظهر فقط عند درجة معينة من قوة معالجة البيانات؟

بالنسبة لي الأمر قطعاً ليس كذلك. والأمر يتعلق بالنوع أولاً قبل أن يتعلق بالكم الذي هو سرعة معالجة البيانات. ومناقشة هذه النقطة يمكن أن تغير سياق المحاضرة كلها. فافتراضه بأن الذكاء الاصطناعي سيقوم بتطوير نفسه يستند أيضاً إلى أن الذكاء ليس إلا معالجة سرعة بيانات!. ويضرب هو مثالاً واضحاً لا يعبر حقيقة إلا عن زاوية واحدة من الموضوع وهي سرعة معالجة البيانات لا أكثر!.

في نهاية المحاضرة يعبر كما أشرت في البدء عن نقطة خلافنا ولكنه وبشكل غريب يذكر ما أتحدث عنه (النوع) ولكن ليس في السياق الذي يؤثر على النتيجة التي توصل لها وهي أننا في طريقنا لصنع ما يشبه الإله!.

But the moment we admit that information processing is the source of intelligence, that some appropriate computational system is what the basis of intelligence is, and we admit that we will improve these systems continuously, and we admit that the horizon of cognition very likely far exceeds what we currently know, then we have to admit that we are in the process of building some sort of god.

سترى أن هناك شيئاً من التناقض بين تلك الجملتين (الخضراء والحمراء) حيث ركز في كل محاضرته على الأولى بينما لم يشر للثانية التي تعبر بطريقة ما عن موضوع “النوع” ولكنه مع ذلك لم يدعها تؤثر على النتيجة التي يراها حتمية!.

خلاصة رأيي: أنا لا أعتقد أننا سنصل يوماً لذكاء اصطناعي حقيقي يشابه ما لدى الإنسان لأسباب تحدثت عنها في التدوينات التي أشرت لها في يداية المقالة، وهي باختصار أننا لازلنا أساساً لا نفهم كيف يتشكل الوعي وإدراك الذات!. إضافة إلى الموضوع ليس فقط سرعة في معالجة البيانات!.

محاضرة أخرى تتحدث عن نفس الموضوع مع التعرض لنقاط أخرى هي محاضرة Nick Bostrom بعنوان:

What happens when our computers get smarter than we are

المحاضرة أيضاً جميلة جداً وفيها تعرض لنقاط أخرى سوى الموضوع الكمي للذكاء الاصطناعي.

إحدى النقاط المثيرة للاهتمام والتي ذكرها هي المقياس الزمني فيما لو اعتبرنا الأرض قد نشأت منذ سنة واحدة، بناء على هذا المقياس يكون عمر البشر 10 دقائق مضت فقط، والثورة الصناعية 2 ثانية!.

ثم يعرض خطاً بيانياً لمعدل الناتج المحلي الإجمالي:

The gross domestic product (GDP) is one of the primary indicators used to gauge the health of a country’s economy.

vlcsnap-error993

ويتبعه بأن السبب هو التكنولوجيا التي تتطور بسرعة كبيرة في هذا الوقت، والتي كان تطورها بدوره تراكمياً. هذا التطور في التكنولوجيا هو السبب الرئيس لهذا الارتفاع المفاجىء للناتج الإجمالي للمجتمعات الصناعية. ولكن من يقف وراء هذا التطور الذي شهدته التكنولوجيا؟ طبعاً الإنسان وفيما يخص الإنسان فنحن نتحدث هنا عن ذكاء الإنسان.

يعرض بعدها صورة لقرد ولإنسان ثم يُظهر لنا صورة لدماغ كل منهما ويقول:

vlcsnap-error629 vlcsnap-error192ويعقب على أن الفارق بين الدماغين هو ما مكن الإنسان لا القرد من القيام بهذ الثورة التقنية. ولكن مالفارق بالنسبة له؟

Basically the same thing. One is a little larger, it maybe also has a few tricks in the exact way it’s wired.

إذاً بالنسبة له الأمر لا يعدو الاختلاف ببعض الحيل التي يتم فيها ربط الخلايا العصبية في أدمغة البشر.

النقطة المثيرة هنا هي: هل يُعقل لأن تكون هذه الاختلافات “التشريحية” البسيطة هي السبب في هذا الاختلاف الهائل في الوعي بين البشر والقردة؟ بمعنى أنه هل يمكن عزو التفوق الهائل بين مستوى ذكاء الإنسان مقارنة بالقرد إلى بعض الاختلافات التشريحية والبنيوية البسيطة؟ بالنسبة لرأي المحاضر فتلك هي القضية:

So a bunch of relatively minor changes take us from Kanzi (ape) to Witten (Human), from broken-off tree branches to intercontinental ballistic missiles.

شخصياً أعتقد بوجود شي يسمو على المادة وراء هذا الفارق في الذكاء، ولكن هذا ليس موضوعنا هنا، ولكن يمكن أن أشير فقط إلى أن هذه الفروق البسيطة في البنى التشريحية لا يمكن أن تكون وراء ذلك الفرق الهائل في مستويات الذكاء! وإلا فإننا يجب أن نلحظ مستويات أكبرفي الفروق بين مستويات ذكاء مختلف أنواع الحيوانات التي يوجد بينها فروق تشريحية أكثر وضوحاً!.

ثم يتطرق المحاضر لنقطة مهمة جداً في تعريف الذكاء الاصطناعي الذي نملكه اليوم، وهي تتلخص بقوله:

Artificial intelligence used to be about putting commands in a box.

وهذه النقطة هي ما كنت أتحدث عنه مسبقاً، فهذه الـ commands وطريقة عملها هي ما كنت أقصد به بالنوع، أما الكم فهو سرعة الحواسيب وسرعة تنفيذها لتلعيمات هذه الخوارزميات. إذاً في المحاضرة السابقة لا نجد أي ذكر للتغير في طبيعة هذه التعليمات التي نستخدمها في الحصول على ذكاء يشبه الذكاء الحقيقي. ويكمل المحاضر هنا ليشير إلى النقطة المهمة في هذا النمط من الذكاء الذي نحصل عليه من وضع عدة تعليمات في خوارزمية واحدة فيقول:

Basically, you got out only what you put in.

وفي جملته هذه معنىً مهم جداً يرتبط بمفهوم قابلية التنبؤ وعلاقة ذلك في الحكم على “نوعية” هذا الذكاء. فكما وسبق وكتبت في تدوينات سابقة فأعتقد بأن هناك صلة وثيقة بين “عدم قابلية التنبؤ” وبين ما يمكن أن نسميه بالـ “الذكاء الحقيقي – الصرف”.

لنتذكر تلك البرامج القديم التي كانت تحاكي قدرة الإنسان على الحوار، حيث كنا ندخل لها جملة من الأسئلة وتقوم هي بعرض الردود التي تكون مناسبة أو غير مناسبة للسؤال الذي تم طرحه. فإذا كانت الكلمة المفتاحية في سؤالنا ضمن ذلك الصندوق box الذي أشار له المحاضر فإن البرنامج سيستجيب باستجابة تبدو لنا ذكية، أما إن لم يكن البرنامج قد تمت تهيئته لسؤال ما (أي أن صندوقه من التعليمات والأوامر commands  لا تحتوي على استجابة لسؤالنا) فيمكن أن يطرح علينا هو سؤالاً بما يمكن أن نسميه هروباً من سؤالنا (وهروبه هذا هو أمر قد تم تخزينه في خوارزميته بالتأكيد).

إذاً ما لدينا هنا هو:

Artificial intelligence used to be about putting commands in a box.

وكلما كان هذا الصندوق كبيراً كان البرنامج أكثر ذكاء بتلك المقاربة. التطور التالي الذي دخل (والذي لا أعتقد أنه يغير أي شيء في ما يخص موضوع قابيلة التنبؤ، كما أنه لا يغدو كونه طريقة لتضخيم هذا الصندوق من التعليمات لا أكثر) هي ما عبر عنه المحاضر بالـ Machine Learning.

قبل أن أكمل هنا أحب أن تشاهد هذا الفيديو عن الطريقة التي تعمل بها ترجمة Google والتي هي مثال واضح وكاف عن الـ Machine Learning ولماذا أرى أنها ليست إلا عبارة عن توسيع للـ Input لا أكثر لتلك الخوارزمية الأساسية التي نعمل عليها والتي هي صدد حكمنا بموضوع الذكاء الاصطناعي.

إذا نحن حكمنا على البرنامج الذي له مجموعة محددة من الـ commands بأنه لا يمكن أن يكون ذكياً كما نريد، لأنه بالنهاية محدود الأوامر، والنقطة المهمة بالنسبة لي هنا هي أن استجابته مرسومة مسبقاً – أي قابلة للتنبوؤ بها. بذلك لا يمكنه مثلاً أن يبدع لنا لوحة فنية جميلة مثلاً. بمعنىً آخر الذكاء الحقيقي الذي أتكلم عنه هو الذي يستطيع أن يأتي بشيء جديد من “لا شيء” (أي بدون وجود input يخرج لنا هذا الشيء) كما أن استجابته لا يمكن أن تكون قابلة للتنبؤ.

لنعد الآ لمحاضرنا والذي يرى أن الـ machine learning هي خطوة مهمة في سبيل الوصول للذكاء الاصطناعي الحقيقي. ولكني لست أرى ذلك لسبب بسيط، وهو أن تقنية الـ machine learning ليست إلى طريقة جديدة automation أراجت المبرمجين من عناء ومهمة إدخال آلاف الـ commands للبرنامج المطلوب. لكن في النهاية يبقى البرنامج ذو استجابة قابلة للتنبؤ بها كما أنه لن يقوم بشيء لم يُبرمج مسبقاً عليه – لهذين السببين لا أعتقد أن ما سبق يقربنا بأي طريقة للذكاء الاصطناعي الذي يمكن أن نخاف منه على سبيل المثال أو الذي يشبه ذكائنا بجوهره.

لنأخذ ترجمة Google كمثال. لنتفرض أننا نريد أن نكتب الأوامر الخاصة ببرنامج الترجمة – هذا يعني أننا يجب أن نكتب ترجمة آلاف الجمل المحتملة وندخلها لقاعدة بيانات البرنامج، حتى إذا ما صادفها البرناج استجاب لها. وطبعاً عندما يواجه البرنامج جملة ليست موجودة في قواعد بياناته فلن يعطيك أي جواب.

الـ machine learning وفرت الجهد على المبرمجين، وما فعلوه هو التالي:

  • قاموا بكتابة خوارزمية تقوم بالمقارنة بين النصوص وترجماتها التي تمت ممن قبل البشر. بمعنى لدينا نصوص على الانترنت ولدينا ترجمتها التي قام بها البشر.
  • يأخذ البرنامج هذه النصوص وترجماتها كبيانات ويقوم بالبحث عن نماذج متشابهة بين النصوص وترجماتها. فمثلاً عندما يجد أن عبارة “أنا أحبك” تمت ترجمتها في معظم الحالات بـ “I love you” فإنه يأخذ هذا النموذج ويعتمده في قواعد بيناناته.
  • الآن عندما يصادف البرنامج هذه الجملة في المستقبل فإنه يترجمها كما سبق ووجد أن البشر ترجموها بتواتر أكبر.
  • إذاً مالذي اختلف هنا؟ لم يختلف شيء سوى طريقة بناء قاعدة البيانات والتي تعتمد مرة أخرى عل مجهود البشر. والتي أيضاً تبقى “قابلة للتنبؤ” وغير قابلة على الخروج بشيء لم تبرمج عليه مسبقاً!. لذلك فأنا أعتقد أنها ليست أي تغيير نوعي في نوعية البرامج التي ندعي أنها تحمل صفة الذكاء الاصطناعي.
  • طبعاً قد تسألني كيف نقول عن ترجمة Google مثلاً بأنها قابلة للتنبؤ؟ ببساطة هي كذلك لأنك لو قمت بتحليل النصوص التي قام هو بتحيليها فستعرف حتماً ماهي المعطيات والمخرجات التي سيعطيك إياها لجملة معينة.
  • الجدير بالذكر فيما تبقى من محاضرته أنه يرى تماماً كما محاضرنا السابق أن العملية ستتطو بعد الوصول للذكاء الاصطناعي وأن الموضوع كمي فقط وليس نوعياً!.
  • vlcsnap-error246
  • كل ما هنالك أنه غير الشكل البياني والمثال عن الذكاء البشري من John von Neumann إلى Ed Witten :).

عن الذكاء الاصطناعي الحقيقي

هل يمكننا إنتاج وعي حقيقي؟

السؤال يدور في فلك الذكاء الإصطناعي. قناعتي الشخصية التي أعتقد أنها لن تتغير لسبب سأوضحه هي “لا”. والسبب بسيط للغاية.

بداية يمكن أن نقول عن مجموعة أسطر برمجية بأنها ذكية نوعاً ما إذا كانت تستجيب بشكل جيد لأسئلتنا. برامج (تحدث مع الكومبيوتر) التي كنا نشغلها في بداية حقبة ظهور الحواسب الشخصية كانت من ذلك النوع، كأن تسأل البرنامج عن اسمه فيخبرك باسمه ويعود ليسألك عن اسمك وهكذا. وعندما تسأله سؤالاً لا يملك له استجابة معينة يقوم هو بطرح سؤال عليك كنوع من التهرب الذكي من سؤالك الذي لا يملك جواباً له. هذه الاستجابة البسيطة تُعد حركة ذكية من مبرمج البرنامج ليُظهر لك البرنامج على درجة ما من الذكاء. أو سيخبرك ببساطة بأنه لا يعرف. (هذا الكلام بُعبر بشكل ما عن اختبار تورنغ).

برأيي الشخصي أن التقدم الحاصل في هذا المجال هو زيادة في التعقيد فحسب. أي أن المبدأ يدور في نفس الحلقة وما حدث هو أن قاعدة بيانات البرنامج أصبحت ضخمة كفاية لتجيب عن أي سؤال. ومع تعزيز وتطوير النواحي الخاصة بإظهار البرنامج لمظهر الذكاء الحقيقي والتي بدوها أصحبت متقدمة جداً (متقدمة من ناحية الضخامة فقط).

كل هذا يعني أن استجابة البرنامج أصبحت أفضل فقط لضخامة القاعدة التي أصبح يستند عليها. لا تحول جوهري آخر. بمعنى أن استجابة البرنامج يمكن توقعها بمعرفة طريقة عمل البرنامج (أي بالاطلاع على أسطره البرمجية). وما دمنا قادرين على توقع النتائج بمعرفة الخوارزمية فأنا أعتقد أنا هذا لا يمكن تسميته بالذكاء الاصطناعي الحقيقي.

المعيار الحقيقي بالنسبة لي لما يمكن تسميته بالذكاء الاصطناعي الحقيقي هو عدم قدرتنا على توقع نتائج خوارزمية هذا الحاسب رغم معرفتنا لتلك الخوارزمية.

بمعنى أنه يمكننا الوصول للذكاء الحقيقي عندما لا نستطيع نحن توقع استجابة البرنامج رغم معرفتنا لأدق تفاصيل طريقة بناءه – وهذا أمر مستحيل لأننا من يبرمج البرنامج ويضع له طريقة عمله. ما يحصل مع تقدم الزمن هو زيادة التعقيد فقط. وهذا يجعلنا نظل نسير في نفس الشارع. شارع الذكاء الاصطناعي الغير حقيقي. كل ما يحدث هو أننا نزداد سرعة لا أكثر.

المعضلة تكمن في أننا بحاجة لصناعة شيء لا نعرف كيف يعمل وهذا من ناحية المنطق أمر مستحيل. لذلك أعتقد شخصياً أننا لن نصل لذكاء اصطناعي يضاهي الحقيقي. أي أننا لن نصل لوعي حقيقي. كل ما سنصل له زيادة في مستويات التعقيد لا أكثر. بمعنى أنك تستطيع أن تسمي هذه الآلة بالذكية لكنك لن تسميها بالواعية. ذكاؤها هنا لا يعبر عن الوعي وإنما يعبر عن براعة في كتابة الخوارزمية.

قد يحصل وأن نبني خوارزمية تستطيع تعليم نفسها أشياء جديدة والتصرف بناء على ما تتعلمه، ولكن في النهاية نحن نستطيع توقع ما يمكن لها أن تتصرف به بناء على معرفة كل المدخلات التي قامت بمعالجتها.

ولكنك قد تسأل السؤال التالي: ماذا تقصد بالوعي الحقيقي؟ كلمة الحقيقي هنا ماذا تقصد بها. قد أجيبك بأن أقول: وعي يشبه الوعي الذي أمتلكه أنا. والذي أفترض أنك تمتلكه. هذا سيقودنا لمشكلة وهي كيف تعرف أن الوعي الذي أمتلكه أنا هو نفسه الوعي الذي تمتلكه أنت؟ كيف لك أن تعرف مثلاً أن الآلة التي أمامك (عندما لا تكون مطلعاً على طريقة عملها) تمتلك وعياً حقيقاً بالمعنى الذي سبق؟

هنا وقبل الخوض في معنى كلمة حقيقي هذه يجب أن نميز أني عندما أقول حقيقي فأنا أقصد الجوهر لا غير. بالنسبة لاختبار تورنغ الذي يتعامل مع المظهر الخارجي فقط دون أن يُعنى بالجوهر فالموضوع مختلف. لذلك لا بد لنا من الاتفاق على قاعدة ما.

القاعدة تقول بأنه صحيح أنك لا يمكن أن تعرف فيما إذا كان وعيك هو نفس وعيي أو طبيعة وجوهر ذكائك هو نفس طبيعة وجوهر ذكائي ولكن لا مشكلة في أن نتفرض أنك صاحب الوعي الوحيد في هذا الكون. أو أن أفترض أنا أني صاحب الوعي الوحيد في هذا الكون. وبناء عليه يجب عليك فقط أن تصدق أني ذكائي حقيقي. وبعدها تبدأ تعرض علي الآلات التي تبتغي إقناعي بأنها ذات ذكاء اصطناعي حقيقي. هذا الإيمان هو الوحيد الذي يجب أن تأخذه دون دليل – لأنه لا سبيل لحل هذه الإشكالية أبداً.

لماذا؟ لنفترض أننا وصلنا لمرحلة متقدمة من التقنية بحيث صار ممكناً أن أطلع على طريقة تفكيرك. أي أن وعيك يمكن أن ينتقل لوعيي. ولكن هنا ستبرز الإشكالية التالية: عندما ينتقل وعيك لوعيي تماماً (عبر مجموعة أسلاك مثلاً) وعندما نصل لدرجة 100% من انتقال وعيك لوعيي فنحن هنا أمام مشكلة وهي أنه لن يعود بالإمكان التمييز بيني وبينك!. أي كيف سأشعر بنفسي بـ 100% وأشعر بك بـ 100%؟! الأمر مستحيل تماماً حتى لو توافرت التقنية اللازمة لنقل شعورك لعقلي. لأننا هنا صرنا شخصاً واحداً لا شخصين. أي لست أنا الذي أحاول أن أعرف هل أنت تفكر كما أفكر أو تشعر كما أشعر.

يمكن تبسيط هذه الفكرة بالمثال التالي: لنفترض أن أمامك مكعبين من البلاستيك. هذان المكعبان يمثلان كينونتين مختلفتين. هما أنت وأنا. إذا أردت أن أحاول أن أتقمص عقلك لأرى كيف تشعر أنت فيجب أن يكون التقمص 100%. لنرى ماذا سيحصل في حالة المكعبين. لنفترض أن المكعبين متشابهين تماماً في كل شي. لكن مالذي يجعل منهما بالنسبة لك كينونتين؟ الموقع. صحيح؟ فهما بالنسبة لك يقعان في موقعين مختلفين وهذا يعطي لأحدهما صفة مختلفة عن الآخر. أي أننا إذا وضعنا جدولاً فيه كل صفات هذين المكعبين فإن أحد حقول هذا الجدول ستختلف ما يجعل من كل منهما كينونة مستقلة.

إذا افترضنا أنهما يشتركان بالموقع أيضاً! وبدون الخوض في موضوع الذرات وما إلا ذلك (واتجاه دوران السبين…) سنفترض أن خواصهما تشابهت تماماً حتى على مستوى الموقع. هنا ألا تلاحظ أنهما أصبحا كينونة واحدة؟! مالذي يجعلنا نعقتد بأنهما لا زالا كينونتين مختلفتين؟ لن تستيطع ولا دليل على ذلك أبداً. ولا يمكن بطبيعة الحال التمييز بينهما. أي أنهما أصبحا شيئاً واحداً.

بالمثل عندما أتقمص عقلك بنسب 100% فلا أستطيع حينها الحكم على عقلك وهل هو يفكر كما أفكر أنا. لأني لأفعل ذلك فأنا بحاجة لجملة مقارنة والتي هي عقلي ولكن عند اكتمال التقمص لن يعود بوسعي معرفة ما أردت معرفته.

إذاً لا يمكن لي بطريقة علمية أن أتأكد أن وعيك يماثل وعيي أبداً لأني سأخسر وعيي في سبيل ذلك، وبدونه لا أستطيع الحكم على وعيك لأنه جملة المقارنة المطلوبة لذلك الحكم. الأمر مستحيل تماماً. إذاً لا بد لنا من الإيمان – الإيمان بأننا نتملك وعياً متشابهاً.

يمكن لبيان المشكلة مثلاً أن نعكس التجربة: تخيل أن أقول لك بأني لست إنساناً حقيقاً إنما أنا آلة. هل لديك طريقة تستطيع بها التأكد من أني آلة؟ لو فكرت بهذا السؤال ستجد أنه بالمثل لا طريقة ولا سبيل لذلك.

إذاً الذكاء الاصطناعي الحقيقي يتعلق بالجوهر الذي تُبنى على أساسه الآلة. بالنسبة لما نصنعه فهو لا يماثل بحال من الأحوال ذكائنا الذي يمكن أن نصفه بالواعي. فالآلات اليوم يمكن وصفها بالذكية لكن لا يمكن وصفها بالواعية. ولا أعتقد بأننا سنصل لمستوى يمكن أن نقول فيه عن آلة ما أنها واعية. يتبع.