أفكار متفرقة (4) — عشوائيتنا

بسم الله الرحمن الرحيم

الحمد لله رب العرش العظيم والصلاة والسلام على نبيه الكريم.

عن الذكاء الاصطناعي أولاً

كثرت في الآونة الأخيرة ادعاءات كثير من الشركات الكبيرة مثل Google وغيرها بأن الذكاء الإصطناعي الذي تعمل عليه توصل لكذا وكذا وقام بكذا وكذا حتى أن غوغل ادعت أن الذكاء الاصطناعي الذي تعمل عليه قام بتوليد تقنية تشفير لا أحد يعلم كيف تعمل!

عملياً كل الحواسيب تعمل بناء على خوارزمية معينة يتم تزويدها بها ولا يمكنها الخروج عنها. ما يحدث هو أن بعض الخوارزميات تقوم بتطوير أداء الحاسب بشكل أسرع من غيرها. لنأخذ مثال الترجمة مثلاً. حتى تقوم بكتابة خوارزمية تقوم بترجمة النصوص كما يفعل مترجم غوغل فأنت أما مهمة صعبة جداً. إذ أن الخوارزمية التي يجب أن تكتبها يجب أن تأخذ بعين الاعتبار كل الاحتمالات الممكنة للنصوص التي يمكن أن نقوم بإدخالها إليها لتترجمها. ولأن الحاسوب يعمل كما تخبره فقط، أي وفق الأوامر المحددة الموجودة في الخوارزمية التي يعمل وفقاً لها – وهذه الخوارزمية بالضرورة محدودة الأسطر، فإن الخوارزمية معرضة للفشل في حال صادفت مثالاً لم يتم تزويدها بالإستجابة المناسبة له، أو أن أدائها سيكون دون المتوقع منها (ترجمة سيئة) في حال كانت مكتوبة بشكل تستجيب فيه لكل ما يتم إدخاله إليها بطريقة معينة وثابتة. وهذا الفشل مرده التنوع الهائل الممكن في التراكيب اللغوية التي يمكن تشكيلها في أي لغة، والتي يصعب جداً حصرها بشكل تام.

إذاً فكتابة الخوارزمية المثالية للترجمة أمر شاق وشاق جداً. ولنتذكر أن كتابة الخوارزمية تتطلب مصدراً للمعلومات، هو عقل المبرمج في حالتنا هذا. فهو الذي يقوم بالتبؤ بالحالات الممكنة التي يمكن أن يتم إدخالها للخوارزمية وبناء عليه يمكتب الاستجابة المثالية لها بناء على معرفته باللغة.

photo_2017-12-09_21-35-44

إذً لدينا الخوارزمية والتي فيها التعليمات المناسبة للاستجابة لكل حالة من الحالات التي يمكن أن تواجهها الخوارزمية أثناء قيامها بعملها. مصدر هذه المعلومات في حالتنا هذه هي عقل المبرمج وخبرته في الترجمة. وهنا نلاحظ أن المبرمج مهما كان خبيراً وضليعاً في الترجمة فإنه لا يمكن له أن يكتب الاستجابة المناسبة لكل حالة يمكن أن تتعرض لها الخوارزمية لعدة أسباب منها ما يتعلق بالوقت، فهو لا يملك الوقت الكافي لكتابة كل الحالات الممكنة للغة معينة، ومنها ما يتعلق بمحدودية قدراته وسوى ذلك من عوامل تحد من أداء الخوارزمية.

قبل أن نتابع، لنضع في بالنا نقطة مهمة ومهمة جداً، وهي أن خوازميتنا السابقة البسيطة ي خوارزمية يمكن لنا أن نتنبأ بمخرجاتها. إذ أن أي شخص يمكن له الوصول لقراءة نص الخورزمية فيمكنه بالتأكيد التنبؤ بالنتائج التي ستخرجها الخوارزمية فيما إذا ما تم أدخال بيانات معينة لها تمت برمجتها على الإستجابة لها من قبل (في مثالنا تمت برمجة الخوارزمية على الاستجابة لجملة “صباح الخير” فقط).

ما قامت به غوغل لاحقاً لتطوير خوارزميات الترجمة لديها كان حلاً ذكياً، ولكن الذكاء فيه ليس التطوير في جوهر الخوارزمية، إنما التطوير كان في طريقة إدخال المعلومات والبيانات للخوارزمية. أي التطوير حصل في طريقة تزويد الخوارزمية بالمعلومات التي يجب أن تستخدمها للترجمة. فلدينا على شبكة الإنترنت آلاف النصوص المترجمة يدوياً من قبل البشر، وغوغل لديها الوصول لتلك البيانات. ما قامت به لاحقاً هو كتابة خوارزمية بسيطة تقوم مثلاً بأخذ ملفين من لغتين تمت ترجمة أحدهما للآخر، وما ستقوم به الخوارزمية هو تقطيع النص الأول لجمل مثلاً وإيجاد الجمل المقابلة في الملف الثاني الذي تمت ترجمته يدوياً، وتقوم بعدها بتخزين تلك البيانات كثنائيات تستخدمها عندما تصادف جملاً مشابهة لتلك التي وجدتها في الملف الذي قامت بتقطيعه. الآن لنكرر هذه العملية على ملايين النصوص المترجمة بشرياً، ما سنحصل عليه في النهاية هو بنك كبير لثنائيات يمكن أن تستخدمها الخوارزمية في الترجمة بين أي لغتين طالما توافرت نصوص مترجمة بشرياً بين تلك اللغتين.

نلاحظ مما سبق أن التطوير حصل على طريقة إدخال البيانات للخوارزمية، وليس لطريقة عملها!. فهي بالنهاية تعتمد على بنك المعلومات ذاك لإيجاد الترجمة المناسبة لنص معين. طبعاً أنا لا أدعي المعرفة التامة بطريقة عمل ترجمة غوغل ولا أنفي وجود أفكار لتطوير عملية الترجمة، ولكن الجوهر الذي تحدثت عنه هو ما يحدث عملياً. أي أن التطوير الحاصل فقط في طريقة إدخال البيانات.

الآن لنفترض أن ترجمة غوغل وصلت بهذه الطريقة لشكل جيد جداً، فهل نقول عن تلك الخوارزمية بأنها ذكية؟ أو تمتلك شيئاً من الذكاء؟ يمكن أن نقول ذلك لو لم نكن نعلم الطريقة التي تعمل بها للحصول على بنك المعلومات الذي تستخدمه في مخرجاتها. وفي النهاية الذكاء الذي نلاحظه ناتج عن الملفات الجيدة التي تم تزويدها بها لتستخلص منها بنك معلوماتها، أي مصدر ذكائها هم البشر أنفسهم بنصوصهم المترجمة بحرفية عالية. وما قامت به الآلة هو فقط نسخ لجهودهم. ولو أن الخوارزمية صادفت واستخدمت نصوصاً مترجمة بشكل سيء، فسينتقل هذا السوء بالضرورة إلى عملها، أي أنها ستعطي نتائج سيئة لأنها اعتمدت على مصارد سيئة في بناء بك معلوماتها. إذاً في المرة القادمة التي تترجم فيها شيئاً على مترجم غوغل وتكون الترجمة سيئة، فلا تلم غوغل وإنما لم أولئك المترجمين البشر الذي ترجموا نصوصاً بشكل سيئ ونشروا تلك الترجمة على الشبكة ثم جاءت غوغل وأخذت تلك النصوص وزودت بها مترجمها! 🙂

لنعد لنقطتنا السابقة، هل الخوارزمية بشكلها الجديد يمكن التنبؤ بمخرجاتها؟ بالطبع يمكن. فما حدث كما قلنا ليس تطويراً للخوارزمية بذاتها إنما تطوير وطريقة جديدة لإعطائتها القدرة على بناء بنك معلومات هائل بفترة قياسية معتمدة على الجهود البشرية المنتشرة على الشبكة. إذاً لا يوجد أي ذكاء أصيل في الموضوع.

لنعمم تلك الطريقة على نواح أخرى. مثلاً في الخوارزميات التي تتكلم مع البشر، لنأخذ ملايين النصوص الحوارية والتي يتم فيها الحوار بين شخصين، ولنكتب خوارزمية تحلل كل مافي تلك النصوص وتصنف تلك النصوص إلى جمل واستجابة حوارية لتلك الجمل بناء على بيانات تمتلك الشركة الوصول لها، والتي هي بيانات بشرية بطبيعة الحال. ومن ثم لنبن آلة تتكلم معنا بناء على تلك المعطيات. هل نستطيع القول بأن تلك الآلة تمتلك ذكاء بشرياً؟ بالطبع لا، الأمر كما في ترجمة غوغل تماماً.

إذاً ما يحدث هو أن الشركات تستفيد من سرعة الضوء، كيف ذلك؟ الإشارات في الحواسيب تنتقل بسرعة الضوء، بالتالي تستطيع كتابة بيانات والوصل لها بسرعة الضوء وهذا يعطي الآلات تقدماً على البشر في المهمات التي تتطلب تكراراً، وكل ما سبق لا يعتمد إلى على التكرار. فما حصل هو أن غوغل استفادت من سرعة الحواسيب في معالجة البيانات، وقامت باستبدال المترجم الواحد الذي يكتب خوارزمية للترجمة واستبدلته بآلاف البشر الذين قاموا بنفس المهمة. كل ما قرأته عن الذكاء الاصطناعي حتى اللحظة يعتمد على نفس المبدأ، وهو أخذ كمية هائلة من البيانات ومن ثم معالجتها للوصول إلى خوارزمية تقوم بالاستجابة لنوع من المعطيات بناء على ما حصلت عليه من معلومات من تلك البيانات التي تم تزويدها بها بالأصل. من هنا تدرك أهمية البيانات البشرية في الذكاء الإصطناعي. فشكرة مثل فيس بو مثلاً لديها كم هائل من الصور الشخصية التي تعرف أصحابها، والتي بواسطتها يمكنها بناء خوارزمية تقوم بالتعرف على الصور كما فعلت غوغل أو لنقل بشكل مشابه لنكون أكثر دقة فيما لا نعلمه تماماً.

بالنتيجة كل ما سبق هو خوارزميات قابلة للتنبؤ، ولا تمتلك أي ذكاء. أعطني البيانات التي قامت غوغل بتزويد مترجمها بها، وأعطني الخوارزمية التي تمت كتابتها للمترجم، وسأتنبؤ لك بأي نص يقوم المترجم بترجمته بنسبة 100%. لماذا؟ لأن الخوازرمية تعمل بشكل أعمى ولا تمتلك الخروج عن النص 🙂 وحتى لو خرجت عن النص فسيكون ذلك بأمر من سطر ما من الخوارزمية، أي من النص :).

إذاً في المرة القادمة التي تقرأ فيها بأن الذكاء الاصطناعي لشركة ما قام بعمل ما فلا تخف كثيراً، ولا تتفائل كثيراً فكل ما في الأمر هو إعطاء الحاسوب بيانات هائلة وتعليمه كيف يستفيد منها لا أكثر ولا أقل. وعندما تقول لك شركة ما بأن ذكائها الإصطناعي توصل لطريقة تشفير لا أحد يعلم كلها فلا تصدق هذا الهراء! وتذكر أن العشوائية الظاهرة في أداء ذكاء اصطناعي معين مصدرها البيانات التي تم تزويده بها أساساً لا أكثر ولا أقل. فهو إذاً دائماً وأبداً يعطي مخرجات يمكن التنبؤ بها بدقة تامة بمعرفة البيانات التي تم تزويده بها أساساً. ويجب أن تفهم الآن سبب نهم تلك الشركات وراء البيانات لأنها بواسطتها تستيطع تحقيق الكثير!

بالمقابل لنتأمل قليلاً ولنسأل أنفسنا السؤال التالي: هل يمكن أن يكون ذكاء البشر تشكل بالطريقة ذاتها؟ أي أن كل ما نملكه من ذكاء هو ناتج عن البيانات التي نأخذها من محيطنا؟ أي بمعنى آخر هل يمكن أن يكون ذكاؤنا تطور بالطريقة ذاتها للدرجة التي توصلنا فيها إلى بناء حواسيب، ثم علمنا تلك الحواسيب أن تطور من نفسها بنفس الطريقة 🙂 وبذلك يكون تطور الذكاء قد أتم دورة كاملة :).

بفرض هذا الاحتمال فإنه لا بد لتلك الحلقة من خوارزمية أولية تبدأ منها الدورة، أي لا بد من وجود خوارزمية تتعاطى المعلومات ومن ثم تطور نفسها بناء على تنوع المعلومات التي تتعرض لها. هذا يقودنا بالضرورة للتطور، فهل يمكن لتلك الخوارزمية الأولية من أن توجد بالصدفة؟ أي هل يمكن لتعقيدها الضروري أو أقل تعقيد ممكن لها، هل يمكن له أن يوجد بالصدفة؟ إذا أجبنا بنعم فيجب أن نعترف بالمقابل بأن خوارزميات قد تنشأ بالخطأ (الصدفة) في حواسيب عملاقة ويمكن لها أن تتطور وتستفيد من المعلومات من حولها في تطوير نفسها وتطوير استجابتها للمتغيرات من حولها بناء على تلك المعطيات التيتعرضت لها واستفادت منها في تطوير بنك معلوماتها الخاص بالاستجابة للمعطيات الخارجية؟

لننتقل مؤقتاً للمحاكاة الرقمية

لنفترض أنك قمت بعمل محاكاة لكون افتراضي صغير. أي أن قمت بصناعة كون صغير في محاكاة حاسوبية. لا بد لك من أن تقوم بوضع قوانين لهذا الكون، ولنفترض أنك وضع قانوناً بأن الجسم ليطير يجب أن يكون ثقله أخف من 1 كيلو غرام. بعدها فإن المخلوقات التي كتبت لها خوارزميات لتكون بشراً في ذلك الكون ستكتشف يوماً ما هذا القانون، ولكنها ستطلق عليه قانوناً كونياً. وما دام هذا القانون يسري على كل المحاكاة، أي على كل ذلك الكو الافتراضي الذي قمت ببنائه، فأن تلك المخلومات سيترسخ لها بأن هذا القانون قانون راسخ في كونها وكوني، أي صحيح في كل مكان من هذا الكون. وهذا طبيعي بالنسبة لك 🙂

بالتالي يمكن لك في محاكاة ثانية في حاسوب ثاني أن تصنع قوانين جديدة، فمثلاً تغير الوزن الذي يجب أن يكون عليه الجسم ليطير وبالمثل سيكتشف الناس في كونك ذاك هذا القانون ويسمونه قانوناً كونياً بالمثل. في مثل هذا السيناريوا وبالنسبة لكائنات الكون الأول فإن قانونهم كوني والقانون الثاني هو قانون خاص بكون آخر، ليس كونهم، فيما لو أوجدت لهم طريقة للتواصل.

بالمثل، هل قوانين كوننا هي من هذا الشكل؟ هل هي مجرد أوامر تمت برمجة هذا الكون عليها لا أكثر ولا أقل؟ وبالمثل هل قوانين كوننا تم وضعها مسبقاً لتتصرف بهذا الشكل في محاكاة حاسوبية ومن ثم تطورت هذه الخوارزميات (التي هي نحن) لتصنع حواسيب ومحاكاة حاسوبية وتضع فيها قوانين ثابتة لتلك المحاكاة أيضاً (كما في الألعاب مثلاً) وبذلك ومرة أخرى تكتمل الحلقة؟ 🙂

البعض يعتقد بأنه يستحيل أن نكون في محاكاة رقمية لأن كمية البيانات التي يحتوي عليها الكون تتطلب قدرات حاسوبية لا يمكن لها أن توجد في أي مكان! ولكن القوانين التي استندوا عليها في بناء تلك النتيجة هي قوانين من كوننا هذا الذي يمكن أن يكون محاكاة حاسوبية، بالتالي لا يحق لهم هذا الادعاء، وبرأيي لا يمكن الحكم أبداً باستحالة كوننا في محاكاة رقمية. أي انهم يدعون أن هذا الاحتمال ضئيل جداً لأن “القوانين الفيزيائية” لا تسمح بذلك! وكأن هذه القوانين لن تكون جزءاً من تلك المحاكاة فيما لو كنا في محاكاة، وكأنها لن تكون قابلة للتبديل والتغيير!.

لنغير السؤال قليلاً، هل يمكنك أن تنفي أنك العاقل الوحيد في هذا الكون وكل من حولك هم عبارة عن حواسيب أو مخلوقات تتصرف بشكل معين أمامك فقط؟ لا تستيطع.

هل تستيطع أن تثبت لنفسك بأن وعيك لنفسك يشبه وعي الآخرين لأنفسهم؟ لا يمكن لك ولا لغيرك القيام بذلك. لأنالطريقة الوحيدة لاختبار ذلك هي أن تشهد وعيهم بذاتك. لنضرب مثالاً أولاً. تخيل أن لديك سيارة من نوع معين، هذه السيارة لها خصائص معينة تختبرها عندما تقود السيارة وعندما تتعامل معها. الآن لنفترض أن شخصاً جاء إليك وادعى بأن سيارته هي نفس سيارتك تماماً، وأعطاك كل الوثائق والصور التي تؤكد ذلك. في مثل هذه الحالة يبقى دائماً هناك مجال لأن يكون كاذباً وأن تكون سيارته مختلفة عن سيارتك ويبقى السبيل الوحيد هو أن تجرب السيارة بنفسك وتعاينها بنفسك. في مثل هذا المثال لن نخوض في كلمة “تعاينها” ولكن لأن المعاينة لسيارتك ولسيارته ستكون بنفس المستوى سنقبل أن النتيجة التي ستخرج بها في حال معاينتك لسيارته ستكون مقبولة. إذاً أنت بحاجة لأن تختبر القضية بنفسك. لكن في حالة الواعي كيف تختبر وعي شخص آخر بنفسك؟ في مثل هذه الحالة يجب أن تصبح أنت هو لكي تختبر وعيه، ولكن في مثل هذه الحالة ستختفي أنت ولن يعود لك وجود لأنك تماهيت  معه تماماً، بالتالي يستحيل عليك أن تنقل المعلومة لنفسك. إذاً في حالة الوعي الأمر مستحيل لأن الوعي هو الأداة وهو المادة المفحوصة في نفس الوقت وهذا أمر مستحيل.

عشوائيتنا

لنعد مرة أخرى لموضوع العشوائية وسؤالنا عن تطور ذكائنا. هل من الممكن أن يكون ذكائنا قد تطور بنفس الطريقة التي نطور بها نحن الذكاء الإصطناعي اليوم؟ بتعريضه لبيانات مختلفة؟ هذا طبعاً يتطلب أن تتواجد الخوارزمية اللازمة بالصدفة وبدون موجد كما تقول نظرية التطور، وهنا لن نخوض في هذه النقطة ولكن سنحاول البحث في قضية العشوائية.

نعلم أن الحواسيب تقوم بتوليد الأرقام العشوائية باستخدام خوارزميات معينة وبالإستناد على قيمة معينة متغيرة باستمرار (كالوقت مثلاً) يتم التعديل على هذه القيمة بشكل معقد للخروج برقم عشوائي. لكن طبعاً هذا الرقم ليس عشوائياً بالمعنى الحرفي، لأننا لو علمنا القيمة التي استندت عليها الخوارزمية المولدة للرقم وعرفنا التعديلات الموضوعة فيها لعرفنا قيمة الرقم بالضرورة.

لننتقل الآن للإنسان ولوعي الإنسان، لو طلبنا منك رقماً عشوائياً فستعطينا رقماً ما. السؤال هنا هل الأمر مشابه للخوارزمية بالنسبة لدماغك؟ هل اعتمد دماغك على قيم معينى لإعطاء هذا الرقم العشوائي؟ أم أنه رقم عشوائي حقيقي؟ ليس من السهولة الإجابة عن هذا السؤال، ولكني أعتقد أن لهذا السؤال تداعيات تمس مواضيع أخرى كالذاكرة والذكاء والروح آخراً.

ما هو مصدر ذكائنا؟ هل هو بنية الدماغ بحد ذاته؟ أي هل هي الطريقة تم توصيل العصبونات فيها؟ الدماغ عملياً ليس إلا عصبونات موصولة مع بعضها البعض بطريقة معقدة، وهذه العصبونات تمرر إشارات كهربائية فيما بينها باستمرار. الأمر مشابه تماماً للحاسوب، ويمكن عملياً محاكاة تركيب الدماغ في الحاسوب. وعملياً ستكون المحاكاة أكثر تفوقاً على الدماغ فيما لو كان الأمر يتقصر على البنية وطريقة التوصيل، لأن الحاسوب ينقل الإشارات بسرعة الضوء، بينما تنتقل الإشارات بين العصوبات في الدماغ بسرعة 119 متر في الثانية على أكثر تقدير. تخل الفارق بينها وبين سرعة نقل البيانات في محاكاة حاسوبية للدماغ والتي هي سرعة نقل الإشارات الكهربائية في الأسلاك! (لحد الآن لم أجد الرقم الدقيق :)).

طبعاً أي محاكاة للدماغ ستواجه عدة عوائق منها فكرة مهمة جداً وهي تمثل حداً معيقاً لسرعة نقل البيانات والتعامل معها في الحواسيب. ما هو أبطأ شيء عملياً في حاسوبك الذي بين يديك بالنسبة لنقل البيانات؟ بعيداً عن سرعة اتصالك بالإنترنت 🙂 فإن أبطأ مكون من مكونات الحاسوب لديك فيما يخص سرعة التعامل مع البيانات هو القرص الصلب الذي يقوم الحاسوب بتخزين المعلومات عليه. وعليه فإن سرعة التعامل مع البيانات ستكون محدودة بأبطأ مكون، القرص الصلب في حالتنا، وستكون محدودو بالتحديد مع سرعة القراءة والكتابة إلى هذا القرص. طبعاً هناك تطور كبير في هذا المجال فلدينا اليوم الـ SSD ولكن مهما يكن فإن سرعة التعامل مع البيانات والمعلومات ستبقى حتى أجل آخر محدودة بسرعة التعامل مع وسائط تخزين البيانات اللازمة لعمل أي خوارزمية، وخصوصاً عندما تعتمد الخوارزمية على بنك معلومات كبير كما في حالة الترجمة مثلاً.

بالعودة للإنسان ودماغه فإن أكثر شيء مريب في موضوع البحث عن الذكاء هو أن البحث عن مكان تخزين الذكريات في الدماغ يكاد لا يذكر أو لن تجد فيه تقدماً ملحوظاً أو لنقل لا زلنا لا نفهم أين يتم تحزين الذكريات لدي الإنسان. صحيح أن الإنسان يخسر أنواع معينة من الذاكرة عند تضرر جزء من دماغه ولكن هذا لا يشير بأي شكل من الأشكال إلى الطريقة التي يخزن بها الدماغ المعلومات التي يحصل عليها والمكان كذلك الأمر. فنحن لا نعلم على وجه التحديد لا الطريقة ولا المكان. النظريات الحديثة تتحدث عن طرق ربط العصبونات مع بعضها البعض ولكن صدقني لو قرأت أي منها لوجدتها تلف وتدور في المكان بدون أن تخرج منها بشيء يرضي فضولك!

إذاً عنصر هام من عناصر المحاكاة للدماغ لايزال غير مفهوماً. فإن اعتبرنا أن الطريقة التي يقوم بها الدماغ بتخزين الذكريات (المعلومات) طريقة فريدة وتعطيه تقدماً على الطريقة التي يقوم بها الحاسوب بذلك، فذلك يضع موضوع المحاكاة أما إشارة التسفهام كبيرة، لكن إذا اعتبرنا أنالقضية لن تؤثر فيظل الحاسوب متقدماً أو سيتقدم عند نجاح عملية المحاكاة، وذلك لتفوقه في سرعة نقل البيانات بين المكونات. هذه السرعة بالنسبة للإنسان تتدخل كثيراً في الوعي. فوعينا مرتبط ارتباطاً وثيقاً بسرعة مكونات الجسم البشري في نقل البيانات. لتوضيح ذلك لا بد لنا من التعرف على مفهوم سرعة نقل البيانات نسبة للزمن أو ما يعرف بالـ Clocking rate.

وعينا والـ Clocking Rate

لنفترض أنك أحببت أن تتواصل مع صديقك عبر إشارات معينة، لنقل أنها ضوئية. فأنت تحمل بيدك مصباحاً وهو يراقب الضوء الصادر عن المصباح. تم الاتفاق بينكما على تسلسل معين لنقل أنه تسلسل مورس لتكويد الأحرف. في هذه الحالة يبقى أمامكما لتواصل ناجح تحديد عدد الإشارات بالنسبة للزمن ليتمكن هو من إرسال العدد المناسب بالزمن المناسب وتتمكن أنت من التقاط المعلومات كما أرسلها هو. لنتفرض أنكما اتفقتما على إرسال إشارة واحد كل ثلاث ثواني. بالتالي يمكننا القول بأن معد سرعة نقل البيانات بينكما (المعلومات، الأحرف) هو 1/3 معلومة في كل ثانية، أو معلومة في كل ثلاث ثواني. إذاً عندما تتلقى أنت إشارة فأنت لا تتوقع إشارة أخرى إلا بعد مرور ثلاث ثواني. وهذا يعني مثلاً أن نقل كلمة مؤلفة من خمسة أحرف يستغرق 15 ثانية، وهكذا. هذه العملية تحدد سرعة نقل البيانات بينكما. وكما تلاحظ يمكن رفعها لسرعة أكبر فيما لو تمكن هو من إرسال إشارة واحدة في كل ثانية مثلاً. ولكن بالنهاية هناك حد لا يمكنه هو أن يتخطاه في سرعة إرسال الإشارات وحد لك لا يمكنك أن تتخطاه في سرعة فهم الإشارات الواردة منه. وهذا الحد مرتبط بالضرورة ببنية الأجهزة المستخدمة في إرسال واستقبال المعلومات ويتحدد بحدودها ومقدرتها العظمى.

بالمثل بالنسبة لوعينا، فنن نتلقى المعلومات والإشارات من الوسط المحيط ثم نعيها، ولكن هذا التلقي محدود بقدرات الأجهزة المستقبلة للمعلومات (الحواس الخمس) من جهة وبقدرة الدماغ نفسه على معالجة هذه المعلومات من جهة أخرى (سرعة نقل وتبادل المعلومات بين العصبونات).

لنأخذ العين على سبيل المثال. تصل الصور للعين بسرعة الضوء، ولنفترض أنك تشاهد التلفاز. تتغير الصور على التلفاز بحد معين يعرف بعدد الإطر بالثانية الواحدة. لنفترض أنك تشاهد فيديو على تلفاز قادر على عرض 60 إطار في الثانية، أي أن الصورة على التلفاز تتغيربمعد 60 مرة في الثانية. هذا هو معدل نقل البيانات بالنسبة للتلفاز والفيديو، سنتفرض أنهما متوافقان على 60 إطار في الثانية. الأمر مختلف تمامأً بالنسبة للعين البشرية بسبب طبيعة تركيبتها. فهي غير قادرة على ملاحظة هذا التواتو من تغير المعطيات في الثانية الواحدة، لذلك فإن الوعي مرتبط بالضرورة بقدرة العين على التمييز بين تغير المعلومات في الأطر التي تتلقاها من الوسط الخارجي. ومن ثم يرتبط الموضوع بسرعة نقل العصب البصري لهذه المعلومات للدماغ، ومن ثم يرتبط الموضوع بسرعة نقل وتبادل العصبونات في الدماغ للمعلومات. بالنهاية يرتبط الموضوع بأبطأ مكون في السلسلة السابقة. ما يعني أن الوعي يختلف تبعاً لسرعة معالجتك للمعلومات. تخيل معي أنك تمتلك عيناً تختلف في بنيتها عن العين البشرية. هذه العين قادرة على تمييز 60 تغير للصورة في الثانية، ولنفترض أنك قادر في كل عناصر السلسلة السابقة على محاكاة هذه السرعة في نقل البيانات، بالتالي ما ستشاهد يختلف عما أشاهده أنا وأعيه. أنت ستشاهد تتالي بطيء جداً للصور ولن تحصل على عرض سلسل للصور (الفيديو) كما أحصل عليه أنا. فبالنهاية تمت صناعة الفيديو بسرعة عرض معينة تتناسب مع العين البشرية للحصول على عرض سلسل. لكن لو كان للحاسوب وعي فهو لن يتلقى المعلومات كما تتلقاها أنت لأنه يمتلك مكونات تتفوق في سرعة تعاملها مع البيانات مع سرعة تعامل حواسك الخمس (التي هو وسائل إدخال المعلومات بالنسبة لك) مع المعلومات المحيطة بك.

بالعودة لمفهوم العشوائية وتساؤلنا عن علاقتها بالذكاء لدى البشر. هل يتعلق الذكاء ومنبعه عن البشر بالطريقة التي يولد فيها الدماغ أرقاماً عشوائية؟ وهل لذلك علاقة بذكائنا وطريقة توليده؟ طبعاً السؤال بغض النظر عن تأثير البيئة المحيطة على الذكاء.

بالعودة مجدداً ك) لموضوع المحاكاة الحاسوبية فيبدو أن الطريقة الوحيدة لمعرفة هل نحن في محاكاة حاسوبية أم لا تتمثل في محاولة العودة إلى أصل الظواهر المحيطة بنا. أي محاولة معرفة أصل تلك القوانين الكونية التي نراها. فمثلاً نحن نعلم أن المصباح ينير عندما تسري فيه الكهرباء بسبب سخونة السلك وإصدارها الطاقة على شكل فوتونات، والكهرباء تنشأ بالسبب الفلاني والسبب الفلاني تفسيره السبب الفلاني، هذه السلسلة من الأسئلة لا نمتلك نهاية لها، ولكن فيما لو توصلنا لنهايتها فسنعرف تماماً هل نحن في محاكاة حاسوبية أم لا. شخصياً وبعيداً عن قصة المحاكاة أعتقد أن للموضوع علاقة بفكرة الدعاء والقضاء والقدر، وسأكتب عن ذلك في مقالة أخرى.

كيف يمكننا التأكد من أننا قادرون على توليد أرقام عشوائية صرفة؟ بالنسبة للحاسوب الأمر محسوم بأنه قابل للتبنؤ باحتمال مئة بالمئة. ماذا عن البشر؟ هل عشوائيتهم مطلقة؟ عملياً يمكن بالمصادفة أن تحزر الرقم الذي أخمنه، ولكن هل هذا يعني أنك اكتشفت هذا الرقم العشوائي الذي أعطيته لك لأنك تعرف كيف أولده؟ بالتأكيد لا. باستبعاد موضوع المصادفة هنا فإننا لا نستطيع الإجابة عن سؤالنا عن مطلق عشوائيتنا إلى بفهم عمل الدماغ البشري بشكل تام.

ختاماً أحب أن أشير إلى نقطة شخصية في نظري لكل ما سبق، وهذه النقاط غير محصورة بالنظرة العلمية للموضوع إنما تتناول نظرتنا الدينية لهذا الكون. بالنسبة للعشوائية فلا يمكن نظرياً الوصول لعشوائية صرفة إلا إذا كانت العشوائية قادمة من خارج المنظومة. فلو كنا في محاكاة رقمية فإن اي جهاز يعمل بالقوانين التي بُنيت عليها تلك المحاكاة ستكون مخرجاته قابلة للتنبؤ بمعرفة المدخلات والخوارزمية التي يعمل بها. أما لو حصلنا بطريقة ما على رقم من خارج المنظومة فإن هذا الرقم سيكون عشوائياً صرفاً ولن يكون بإمكاننا التنبؤ به بحال من الأحوال. وبالنسبة لي تشكل الروح التي نؤمن بها جزءاً من خارج المنظومة التي يعمل بها الكون، لذلك فإن عشوائيتنا برأيي هي صرفة غير خاضعة للقوانين التي يعمل بها الكون.

بالمثل فإن بحثنا عن سلسلة أي حدث لا يمكن أن توصلنا إلى النهاية، لأن نهايتها يجب أن تكون خارج منظومة كوننا وبالتالي فلن نصل يوماً إلى فهم كل أسرار كوننا لأن جزءاً منها يقع خارج منظومة الكون نفسه وخارج قوانينه.

بالنسبة للذاكرة لدى البشر فأنا أعتقد أن للروح دوراً في الموضوع وهي السر الكامن وراء عبقرية أداء الدماغ البشري. والمهم هنا أنها خارج المنظومة لذلك بحثنا عنها لا يمكن أن يوصلنا لأي شيء، وهذا ما وجهنا إليه ربنا بأنها من علم الغيب والغيب لا يمكننا الوصول له من داخل المنظومة أو اعتماداً على مكوناتها وقوانينها.

TED: Can we build AI without losing control over it?

بسم الله الرحمن الرحيم

الحمد لله رب العرش العظيم والصلاة والسلام على نبيه الكريم.

في التدوينات التي سأعنونها بـ TED سأكتب أهم النقاط التي وردت في بعض المحاضرات التي شاهدتها وأعتقد أنها تستحق المناقشة والبحث، بالإضافة إلى تعليقي عليها.

هذه التدوينة سأعلق فيها على محاضرة Sam Harris والتي كانت بعنوان:

Can we build AI without losing control over it?

والتي يتحدث فيها عن الذكاء الاصطناعي ومخاوف العلماء من وصول التقنية لدرجة يكون فيها الذكاء الاصطناعي خطراً على مستقبل البشرية.

كنت قد تحدثت عن رأيي الشخصي في الموضوع في عدة تدوينات سابقة:

مستقبل الذكاء الاصطناعي

مستقبل الذكاء الاصطناعي O__o تعقيب

عن الوعي والإرادة الحرة

Your consciousness and the Big Bang

عن الذكاء الاصطناعي الحقيقي

المحاضر بشكل عام مقتنع تماماً بأننا نستطيع الوصول للذكاء الاصطناعي الذي يتفوق علينا، ولكن المشكلة هنا (وهي المشكلة الأهم في كل المحاضرة) هي ما هو تعريف الذكاء الذي نستطيع منه الإنطلاف في نقاشنا لهذه المحاضرة؟ الإجابة على هذا السؤال صعبة حقيقة إذ من الصعب جداً وضع تحديد واضح لمفهوم الذكاء الذي نحاول الحديث عنه غالباً بالإشارة إلى الذكاء البشري، الذكاء الذي نمتلكه نحن البشر – الذين تمكنا من صناعة تلك الحواسيب العملاقة!.

سأبدأ كلامي هنا بالحديث عن النقطة الرئيسة التي أرى أنها قد تكون سبب أي اختلاف مع رأي المحاضر، والتي تتجلى في سؤالنا عن ماهية العوائق التي تحول بيننا وبين الوصول للذكاء الاصطناعي الحقيقي؟ هل الموضوع كما يرى الكاتب هو عبارة سرعة معالجة بيانات لا أكثر، أي أنه يعتقد أن الموضوع متعلق بسرعة معالجة البيانات لا أكثر ولا أقل، ويعبر عن ذلك في نهاية المحاضرة بشكل واضح:

But the moment we admit that information processing is the source of intelligence…

إذاً هوو هنا وبشكل واضح جداً يعتقد أن مسألة وصولونا للذكاء الاصطناعي الحقيقيهي مسألة وقت لا أكثر. والمشكلة تكمن في عدة نقاط لعل أهمها هي كلمة “الحقيقي” في عبارتنا الأخيرة. إذ ماذا نقصد بقولنا ذكاء اصطناعي حقيقي؟ يمكننا أن نستشف عدة صفات لهذا الذكاء بناء على المحاضرة ولعل أهمها هو وعي الذات. أي في اللحظة التي سنصل فيها لذكاء اصطناعي واعي لذاته نكون قد وصلنا لذكاء اصطناعي حقيقي. وعي الذات هذا يتضمن وعي مصلحة الذات، أي أن تعي الآلة مصلحة نفسها، وكان هذا الوعي لمصلحة الذات هو أحد أهم مخاوف المحاضر. وقد أشار إليه عندما قال:

I think it’s very difficult to see how they won’t destroy us or inspire us to destroy ourselves.

ونقطته هذه تتضمن الافتراض بأننا وصلنا سلفاً للذكاء الواعي لذاته “الحقيقي” والذي اكتشف تعارض بقاءه مع بقاءنا فنشأت لديه النزعة لتدميرنا – وهذا أمر منطقي فيما إذا كان الوصول لهذا الذكاء الحقيقي ممكناً في المقام الأول. إذاً هذه النقطة لا يمكن مناقشتها قبل الوصول لنتيجة في نقاشنا عن إمكانية الوصول لهذا الذكاء في المقام الأول.

ونقطته في فشلنا في الوصول لاستجابة عاطفية مناسبة لهذه المشكلة التي تواجهنا في حقل الذكاء الاصطناعي لا تهمنا أيضاًً لأننا مختلفون معه أساساً في أهم فرضية يبني عليها محاضرته.

النقطة التي أخالفه بسببها هو اعتقاده بأن المسألة مسألة “كم” فقط، فهو يعتقد أن الذكاء هو مجرد معالجة للمعلومات  ويوماً ما ما دمنا نسير (ما دمنا نعمل ونزيد من قوة معالجة الحواسيب للمعلومات) فسنصل لتحقيق هذا الذكاء الاصطناعي. واستطرد فوق ذلك بأننا بعد أن نصل لذلك الذكاء فإنه (أي الذكاء نفسه) سيعمل على تطوير نفسه وسيكون معدل تطوره انفجارياً:

At a certain point, we will build machines that are smarter than we are, they will begin to improve themselves. And then we risk what the mathematician IJ Good called an “intelligence explosion” that the process could get away from us.

النقطة التي أستند عليها في مخالفتي له هو أن الموضوع ليس “كما” فقط وإنما هو “نوع” أيضاً. تسأل لماذا؟ هناك عدة نقاط أستند عليها في افتراضي هذا.

أولاً الموضوع ليس موضوع “كم” فقط، إنما هو تضافر لعاملين هما الكم و”النوع”. أي أن نوعية وطبيعة الخواريزميات المستخدمة تعلب الدور الرئيس في الحكم على الذكاء الاصطناعي. فالموضوع ليس مجرد سرعة معالجة بيانات!.

ثانياً إن الحواسيب الآن هي مسبقاً أسرع من الإنسان في معالجة البيانات – فماذا ليست أذكى منه إذاً؟ هل يتطلب الأمر معدلات أكبر في قوة معالجة البيانات؟ بمعنى أن الذكاء بالنسبة للآلة بسبب اختلاف تركبيها يحتاج لمعدلات أكبر من قوة معالجة البيانات؟ مرة أخرى إذا أردنا أن نقول نعم فالأمر لا دليل عليه وهو مجرد افتراض – إضافة إلى أن المنطق يقول لنا بأن زيادة الكم لن تؤدي إلى شيء سوء زيادة سرعة الاستجابة لا أكثر. أي أن الكم سيزداد ولكن “النوع” أي “نوعية الخوارزميات المستخدمة” لن تزداد بنفس معدل سرعة زيادة سرعة معالجة المعلومات. فإن كان لديك خوارزمية سيئة وقمت بتشغليها على اقوى حواسيب العالم فلن تحصل على نتائج اكثر من سرعة معالجة البيانات المدخلة.

كلامه التالي يعبر عن أنه يرى الموضوع موضوع كم فقط:

I mean, there’s just atoms in here, and as long as we continue to build systems of atoms that display more and more intelligent behavior, we will eventually, unless we are interrupted, we will eventually build general intelligence into our machines.

فهو يرى ببساطة أن هذا الذكاء ليس إلا نتاج هذا التجمع من الذرات التي في أدمغتنا، ولكنه يعود ليفترض مرة أخرى أننا نسير على الطريق الصحيح (لاعتقاده بأن الموضوع موضوع كم فقط)، فكلمة  more and more intelligent behavior هي تعبير عن زيادة السرعة فقط.

لاحظ في الشكل كيف يحاول التأكيد على أن الذكاء هو كمي فقط:

vlcsnap-error080

تلاحظ في الشكل أنه لا توجد طريقة لتوضيح أن الفرق بين ذكاءنا وذكاء الدجاجة هو ليس كماً فقط إنما كم ونوع!. ثم استند على هذه الشكل ليحاول أن يشير إلى أن الخط البياني يمتد إلى أفق أعلى لم نصله نحن، ولكن يمكن للآلات فيما إذا نجحت في الوصول إلى مرحلة الذكاء أن تصله بسرعة أكبر مما نتخيل:

vlcsnap-error860

إذاً العامل الأساسي الذي أعتقد أنه المحاضر كان يجب أن يركز عليه هو طبيعة الخوارزميات المستخدمة في سياق الذكاء الاصطناعي وليس سرعة معالجة البيانات فقط.

ولحل هذه المشكلة أعتقد أن الشكل يجب أن يكون ثلاثي الأبعاد حيث يكون الذكاء مستندا على محورين أساساً يكون محصلتهما هو الذكاء الكلي، ومن ثم يكون المحور الثالث للمقارنة بين الذكاء الكلي لمختلف الكائنات بما فيها الآلات. أي أن هذا الشكل لا يعبر حقيقة عن كل العوامل التي تتدخل في تحديد مستوى الذكاء لدى الكائن.

ويجب أن نلاحظ أن اختلاف النوع هو المسيطر في الواقع على اختلاف الكم.

يشير بعدها المحاضر إلى أن الوصول لهذا الذكاء الذي يهددنا أمر حتمي إلا إذا كنا مخطئين في واحدة من ثلاث افتراضات هي:

  1. الذكاء هو مسألة معالجة بيانات لا أكثر في بنى فيزيائية (الحواسيب).
  2. نحن نستمر في زيادة سرعة معالجة المعلومات.
  3. نحن الآن لا نمتلك ذكاء اصطناعياً حقيقياً لنخاف منه.

يتضح لك أني أخالفه في الفرضية الأولى، أما ما تبقى فكلامه صحيح تماماً. إذ أننا سنستمر طبعاً في زيادة “سرعة” معالجة البيانات ولكن السؤال الذي يطرح نفسه دوماً هو: هل الذكاء الذي نخاف منه سيظهر فقط عند درجة معينة من قوة معالجة البيانات؟

بالنسبة لي الأمر قطعاً ليس كذلك. والأمر يتعلق بالنوع أولاً قبل أن يتعلق بالكم الذي هو سرعة معالجة البيانات. ومناقشة هذه النقطة يمكن أن تغير سياق المحاضرة كلها. فافتراضه بأن الذكاء الاصطناعي سيقوم بتطوير نفسه يستند أيضاً إلى أن الذكاء ليس إلا معالجة سرعة بيانات!. ويضرب هو مثالاً واضحاً لا يعبر حقيقة إلا عن زاوية واحدة من الموضوع وهي سرعة معالجة البيانات لا أكثر!.

في نهاية المحاضرة يعبر كما أشرت في البدء عن نقطة خلافنا ولكنه وبشكل غريب يذكر ما أتحدث عنه (النوع) ولكن ليس في السياق الذي يؤثر على النتيجة التي توصل لها وهي أننا في طريقنا لصنع ما يشبه الإله!.

But the moment we admit that information processing is the source of intelligence, that some appropriate computational system is what the basis of intelligence is, and we admit that we will improve these systems continuously, and we admit that the horizon of cognition very likely far exceeds what we currently know, then we have to admit that we are in the process of building some sort of god.

سترى أن هناك شيئاً من التناقض بين تلك الجملتين (الخضراء والحمراء) حيث ركز في كل محاضرته على الأولى بينما لم يشر للثانية التي تعبر بطريقة ما عن موضوع “النوع” ولكنه مع ذلك لم يدعها تؤثر على النتيجة التي يراها حتمية!.

خلاصة رأيي: أنا لا أعتقد أننا سنصل يوماً لذكاء اصطناعي حقيقي يشابه ما لدى الإنسان لأسباب تحدثت عنها في التدوينات التي أشرت لها في يداية المقالة، وهي باختصار أننا لازلنا أساساً لا نفهم كيف يتشكل الوعي وإدراك الذات!. إضافة إلى الموضوع ليس فقط سرعة في معالجة البيانات!.

محاضرة أخرى تتحدث عن نفس الموضوع مع التعرض لنقاط أخرى هي محاضرة Nick Bostrom بعنوان:

What happens when our computers get smarter than we are

المحاضرة أيضاً جميلة جداً وفيها تعرض لنقاط أخرى سوى الموضوع الكمي للذكاء الاصطناعي.

إحدى النقاط المثيرة للاهتمام والتي ذكرها هي المقياس الزمني فيما لو اعتبرنا الأرض قد نشأت منذ سنة واحدة، بناء على هذا المقياس يكون عمر البشر 10 دقائق مضت فقط، والثورة الصناعية 2 ثانية!.

ثم يعرض خطاً بيانياً لمعدل الناتج المحلي الإجمالي:

The gross domestic product (GDP) is one of the primary indicators used to gauge the health of a country’s economy.

vlcsnap-error993

ويتبعه بأن السبب هو التكنولوجيا التي تتطور بسرعة كبيرة في هذا الوقت، والتي كان تطورها بدوره تراكمياً. هذا التطور في التكنولوجيا هو السبب الرئيس لهذا الارتفاع المفاجىء للناتج الإجمالي للمجتمعات الصناعية. ولكن من يقف وراء هذا التطور الذي شهدته التكنولوجيا؟ طبعاً الإنسان وفيما يخص الإنسان فنحن نتحدث هنا عن ذكاء الإنسان.

يعرض بعدها صورة لقرد ولإنسان ثم يُظهر لنا صورة لدماغ كل منهما ويقول:

vlcsnap-error629 vlcsnap-error192ويعقب على أن الفارق بين الدماغين هو ما مكن الإنسان لا القرد من القيام بهذ الثورة التقنية. ولكن مالفارق بالنسبة له؟

Basically the same thing. One is a little larger, it maybe also has a few tricks in the exact way it’s wired.

إذاً بالنسبة له الأمر لا يعدو الاختلاف ببعض الحيل التي يتم فيها ربط الخلايا العصبية في أدمغة البشر.

النقطة المثيرة هنا هي: هل يُعقل لأن تكون هذه الاختلافات “التشريحية” البسيطة هي السبب في هذا الاختلاف الهائل في الوعي بين البشر والقردة؟ بمعنى أنه هل يمكن عزو التفوق الهائل بين مستوى ذكاء الإنسان مقارنة بالقرد إلى بعض الاختلافات التشريحية والبنيوية البسيطة؟ بالنسبة لرأي المحاضر فتلك هي القضية:

So a bunch of relatively minor changes take us from Kanzi (ape) to Witten (Human), from broken-off tree branches to intercontinental ballistic missiles.

شخصياً أعتقد بوجود شي يسمو على المادة وراء هذا الفارق في الذكاء، ولكن هذا ليس موضوعنا هنا، ولكن يمكن أن أشير فقط إلى أن هذه الفروق البسيطة في البنى التشريحية لا يمكن أن تكون وراء ذلك الفرق الهائل في مستويات الذكاء! وإلا فإننا يجب أن نلحظ مستويات أكبرفي الفروق بين مستويات ذكاء مختلف أنواع الحيوانات التي يوجد بينها فروق تشريحية أكثر وضوحاً!.

ثم يتطرق المحاضر لنقطة مهمة جداً في تعريف الذكاء الاصطناعي الذي نملكه اليوم، وهي تتلخص بقوله:

Artificial intelligence used to be about putting commands in a box.

وهذه النقطة هي ما كنت أتحدث عنه مسبقاً، فهذه الـ commands وطريقة عملها هي ما كنت أقصد به بالنوع، أما الكم فهو سرعة الحواسيب وسرعة تنفيذها لتلعيمات هذه الخوارزميات. إذاً في المحاضرة السابقة لا نجد أي ذكر للتغير في طبيعة هذه التعليمات التي نستخدمها في الحصول على ذكاء يشبه الذكاء الحقيقي. ويكمل المحاضر هنا ليشير إلى النقطة المهمة في هذا النمط من الذكاء الذي نحصل عليه من وضع عدة تعليمات في خوارزمية واحدة فيقول:

Basically, you got out only what you put in.

وفي جملته هذه معنىً مهم جداً يرتبط بمفهوم قابلية التنبؤ وعلاقة ذلك في الحكم على “نوعية” هذا الذكاء. فكما وسبق وكتبت في تدوينات سابقة فأعتقد بأن هناك صلة وثيقة بين “عدم قابلية التنبؤ” وبين ما يمكن أن نسميه بالـ “الذكاء الحقيقي – الصرف”.

لنتذكر تلك البرامج القديم التي كانت تحاكي قدرة الإنسان على الحوار، حيث كنا ندخل لها جملة من الأسئلة وتقوم هي بعرض الردود التي تكون مناسبة أو غير مناسبة للسؤال الذي تم طرحه. فإذا كانت الكلمة المفتاحية في سؤالنا ضمن ذلك الصندوق box الذي أشار له المحاضر فإن البرنامج سيستجيب باستجابة تبدو لنا ذكية، أما إن لم يكن البرنامج قد تمت تهيئته لسؤال ما (أي أن صندوقه من التعليمات والأوامر commands  لا تحتوي على استجابة لسؤالنا) فيمكن أن يطرح علينا هو سؤالاً بما يمكن أن نسميه هروباً من سؤالنا (وهروبه هذا هو أمر قد تم تخزينه في خوارزميته بالتأكيد).

إذاً ما لدينا هنا هو:

Artificial intelligence used to be about putting commands in a box.

وكلما كان هذا الصندوق كبيراً كان البرنامج أكثر ذكاء بتلك المقاربة. التطور التالي الذي دخل (والذي لا أعتقد أنه يغير أي شيء في ما يخص موضوع قابيلة التنبؤ، كما أنه لا يغدو كونه طريقة لتضخيم هذا الصندوق من التعليمات لا أكثر) هي ما عبر عنه المحاضر بالـ Machine Learning.

قبل أن أكمل هنا أحب أن تشاهد هذا الفيديو عن الطريقة التي تعمل بها ترجمة Google والتي هي مثال واضح وكاف عن الـ Machine Learning ولماذا أرى أنها ليست إلا عبارة عن توسيع للـ Input لا أكثر لتلك الخوارزمية الأساسية التي نعمل عليها والتي هي صدد حكمنا بموضوع الذكاء الاصطناعي.

إذا نحن حكمنا على البرنامج الذي له مجموعة محددة من الـ commands بأنه لا يمكن أن يكون ذكياً كما نريد، لأنه بالنهاية محدود الأوامر، والنقطة المهمة بالنسبة لي هنا هي أن استجابته مرسومة مسبقاً – أي قابلة للتنبوؤ بها. بذلك لا يمكنه مثلاً أن يبدع لنا لوحة فنية جميلة مثلاً. بمعنىً آخر الذكاء الحقيقي الذي أتكلم عنه هو الذي يستطيع أن يأتي بشيء جديد من “لا شيء” (أي بدون وجود input يخرج لنا هذا الشيء) كما أن استجابته لا يمكن أن تكون قابلة للتنبؤ.

لنعد الآ لمحاضرنا والذي يرى أن الـ machine learning هي خطوة مهمة في سبيل الوصول للذكاء الاصطناعي الحقيقي. ولكني لست أرى ذلك لسبب بسيط، وهو أن تقنية الـ machine learning ليست إلى طريقة جديدة automation أراجت المبرمجين من عناء ومهمة إدخال آلاف الـ commands للبرنامج المطلوب. لكن في النهاية يبقى البرنامج ذو استجابة قابلة للتنبؤ بها كما أنه لن يقوم بشيء لم يُبرمج مسبقاً عليه – لهذين السببين لا أعتقد أن ما سبق يقربنا بأي طريقة للذكاء الاصطناعي الذي يمكن أن نخاف منه على سبيل المثال أو الذي يشبه ذكائنا بجوهره.

لنأخذ ترجمة Google كمثال. لنتفرض أننا نريد أن نكتب الأوامر الخاصة ببرنامج الترجمة – هذا يعني أننا يجب أن نكتب ترجمة آلاف الجمل المحتملة وندخلها لقاعدة بيانات البرنامج، حتى إذا ما صادفها البرناج استجاب لها. وطبعاً عندما يواجه البرنامج جملة ليست موجودة في قواعد بياناته فلن يعطيك أي جواب.

الـ machine learning وفرت الجهد على المبرمجين، وما فعلوه هو التالي:

  • قاموا بكتابة خوارزمية تقوم بالمقارنة بين النصوص وترجماتها التي تمت ممن قبل البشر. بمعنى لدينا نصوص على الانترنت ولدينا ترجمتها التي قام بها البشر.
  • يأخذ البرنامج هذه النصوص وترجماتها كبيانات ويقوم بالبحث عن نماذج متشابهة بين النصوص وترجماتها. فمثلاً عندما يجد أن عبارة “أنا أحبك” تمت ترجمتها في معظم الحالات بـ “I love you” فإنه يأخذ هذا النموذج ويعتمده في قواعد بيناناته.
  • الآن عندما يصادف البرنامج هذه الجملة في المستقبل فإنه يترجمها كما سبق ووجد أن البشر ترجموها بتواتر أكبر.
  • إذاً مالذي اختلف هنا؟ لم يختلف شيء سوى طريقة بناء قاعدة البيانات والتي تعتمد مرة أخرى عل مجهود البشر. والتي أيضاً تبقى “قابلة للتنبؤ” وغير قابلة على الخروج بشيء لم تبرمج عليه مسبقاً!. لذلك فأنا أعتقد أنها ليست أي تغيير نوعي في نوعية البرامج التي ندعي أنها تحمل صفة الذكاء الاصطناعي.
  • طبعاً قد تسألني كيف نقول عن ترجمة Google مثلاً بأنها قابلة للتنبؤ؟ ببساطة هي كذلك لأنك لو قمت بتحليل النصوص التي قام هو بتحيليها فستعرف حتماً ماهي المعطيات والمخرجات التي سيعطيك إياها لجملة معينة.
  • الجدير بالذكر فيما تبقى من محاضرته أنه يرى تماماً كما محاضرنا السابق أن العملية ستتطو بعد الوصول للذكاء الاصطناعي وأن الموضوع كمي فقط وليس نوعياً!.
  • vlcsnap-error246
  • كل ما هنالك أنه غير الشكل البياني والمثال عن الذكاء البشري من John von Neumann إلى Ed Witten :).