أقلام فكرية
ابراهيم طلبه سلكها: أهمية الفلسفة للذكاء الاصطناعى وتطبيقاته

مقدمة: يُعَدّ الذكاء الاصطناعي من أبرز الظواهر المعرفية والتقنية التي يشهدها العصر الحديث، حيث تجاوز حدود الاستخدام البرمجي إلى التأثير المباشر في بنية المعرفة الإنسانية وأنماط الحياة والعمل. وتكمن أهمية دراسة هذا الموضوع في أنه لا يقتصر على بعده العلمي أو التقني، بل يتصل اتصالًا وثيقًا بجذور فلسفية عميقة أثارت منذ قرون أسئلة حول ماهية العقل، وإمكانات محاكاته، وحدود العلاقة بين الإنسان والآلة.
ومن هنا تنشأ الإشكالية الرئيسة لهذا البحث، وهي: كيف يمكن للفلسفة، عبر تاريخها الطويل، أن تفسّر الأسس التي يقوم عليها الذكاء الاصطناعي، وأن تسهم في فهم تحدياته الراهنة؟ وهل يمكن للآلة أن تحوز وعيًا أو معرفة بالمعنى الفلسفي للكلمة، أم أن حدودها ستظل مقيدة بالبرمجة البشرية؟ كما تطرح الإشكالية أبعادًا أخلاقية وسياسية عميقة تتعلق بحرية الإرادة والمسؤولية، والعدالة في التعامل مع البيانات، وحدود تمايز الإنسان عن الآلة في ظل التطورات المتسارعة.
وللإجابة عن هذه الإشكالية، يعتمد البحث على منهج تحليلي- مقارن يقوم على تتبع الجذور الفلسفية لفكرة الذكاء الاصطناعي، وتحليل الأسس المعرفية والمنطقية التي أسهمت في تطوره، ثم دراسة أبعاده الأخلاقية والإنسانية، وأثره في إعادة صياغة مفهوم الهوية البشرية. كما يستند المنهج إلى استقراء التطبيقات العملية في الطب والتعليم والاقتصاد، وربطها بالأطر الفلسفية التي تحدد أبعادها وحدودها.
وتتوزع محاور البحث على النحو الآتي:
المحور الأول: الجذور الفلسفية لفكرة الذكاء الاصطناعي
المحور الثاني: الأسس المعرفية والمنطقية
المحور الثالث: الأسس الأخلاقية والفلسفة العملية
المحور الرابع: الفلسفة والهوية الإنسانية أمام تطور الذكاء الاصطناعي
المحور الخامس: التطبيقات العملية في ضوء الأسس الفلسفية.
الخاتمة
وبذلك يسعى البحث إلى إظهار أن الذكاء الاصطناعي ليس مجرد ثمرة للتطور التكنولوجي، بل هو في جوهره امتداد لأسئلة فلسفية قديمة تتجدد اليوم في سياق أكثر تعقيدًا وإلحاحًا.
المحور الأول: الجذور الفلسفية لفكرة الذكاء الاصطناعي
1- الأصول الفكرية للذكاء الاصطناعي
تعود فكرة ما نسمّيه اليوم بالذكاء الاصطناعي إلى حاجة الإنسان العميقة لإنجاز ما يعجز عنه بذاته، وكأنها انعكاس لرغبته في محاكاة فعل الخلق. فكما خلق الله الإنسان على صورته، يسعى الإنسان – على صورته – إلى خلق ذكاء اصطناعي. وقد انبثق هذا الطموح ضمن تقليد طويل يمتدّ من الوصايا العشر التي حرّمت صنع الأصنام، مرورًا بأسطورة الهومونكولوس homunculus (الانسان الصغير وهى فكرة عن إنسان مُصنَّع وليس مولودًا طبيعيًا) عند باراسيلسوس والغولِم (هو كائن مصطنع من الطين أو التراب، يتم تحريكه بسحر أو كلمات مقدسة ليقوم بأعمال محددة) الذي ابتكره الحاخام يهودا لوف في براغ ، وصولًا إلى شخصية فيكتور فرانكشتاين (هو العالم الشاب الذي يبتكر حياة اصطناعية في مختبره، عن طريق تجميع أجزاء بشرية وتحفيزها كهربائيًا ليولد مخلوقًا حيًا يثير التساؤلات الأخلاقية والاجتماعية) عند ماري شيلي عام 1818. وهذه الأمثلة التاريخية لا تتجاوز كونها إشارات إلى الدوافع الكامنة وراء حلم الإنسان بخلق كيان ذكي، وهي دوافع غير قابلة للقياس المباشر، لكنها حاضرة في كل نشاط إنساني، ولا سيما في النشاط الإبداعي والعلمي (1).
ومن هذا المنطلق، يبرز استكشاف الأسس الفلسفية للذكاء الاصطناعي كأمر بالغ الأهمية؛ إذ يوجّه مسار تطور هذه التكنولوجيا ويؤثر في كيفية اندماجها في المجتمعات. فالتساؤلات الفلسفية والأطر النظرية تشكّل أدوات أساسية لمعالجة أبعاد الذكاء الاصطناعي الاجتماعية والأخلاقية. ففي حين يشدد جونتر وكاسيرزاده Günther and Kasirzadeh على قابلية التفسير في تنبؤات الذكاء الاصطناعي، يضع ميراتشي Miracchi إطارًا للكفاءة، بينما يبحث زيمرمان Zimmermann وزملاؤه في أنماط الثقة عبر تصميم الوكلاء المعرفيين، ويسعى لوكيانيينكوLukyanenko إلى تأسيس إطار بنيوي للثقة. أما فلوريدي Floridi ودامِسكي Dameski فقد عالجا الاعتبارات الأخلاقية بوضع مبادئ وأطر شاملة، في حين أسهم باواك Bawack ودي ألميدا de Almeida في تصنيفات هيكلية وأطر تنظيمية تعزز البناء الفلسفي للذكاء الاصطناعي (2).
وإذا انتقلنا إلى البعد التاريخي، نجد أن تطور الذكاء الاصطناعي قد استُكشف على نحو واسع في الدراسات الحديثة. فقدّم بيتا Peta رؤية شاملة لمساره منذ النشأة حتى الوضع الراهن، بينما ركّز أوديبير Audiber على أثر الباحثين، وزايدي Zaidi على خط سير خوارزميات التعلّم. كما قدّم توبيـن Tobin وزملاؤه جدولًا زمنيًا موجزًا أبرز النمو السريع للإنتاج البحثي، فيما أدرج جوشي Joshi ومولوي Moloi الذكاء الاصطناعي في سياق التاريخ البشري من خلال مقارنات بين تطور الإنسان والآلة. كذلك تناول خان Khan وزملاؤه التطورات التقنية في بنية المعالجات الدقيقة التي عززت تبنّي الذكاء الاصطناعي في مجالات متعددة (3).
إنّ جذور الفكرة لا تقف عند حد التاريخ الحديث، بل تمتد إلى الفلسفة والمنطق والرياضيات. ففي الأزمنة الأسطورية، ابتكر المصريون القدماء تماثيل كان الكهنة يختبئون داخلها ليقدّموا الإرشاد للناس، وهو شكل بدائي لمحاولة محاكاة الذكاء. ومع الفلسفة اليونانية، رسّخ أرسطو بمنطقه الصوري إطارًا للتفكير العلمي، وميّز بين المادة والصورة، وهو ما يشكّل حتى اليوم أساسًا في علم الحاسوب وتجريد البيانات (4).
وقد كان للفلاسفة اليونانيين دور بارز في إثارة تساؤلات حول القواعد الصورية للاستدلال، وهو ما ألهم لاحقًا أحد روّاد الذكاء الاصطناعي المعاصرين، مارفن مينسكي. فالمنطق والهندسة عند اليونانيين أسّسا لفكرة ردّ الاستدلال إلى الحساب. ويُعدّ أرسطو بمنهجه القياسي رائدًا لهذا التوجه، لكن المسار لم يكن حكرًا على المنظّرين بل شمل الحالمين أيضًا، مثل ريمون لول Ramon Lul الذي عُدّ شخصية محورية في تاريخ الذكاء الاصطناعي، وتبنّت جامعات برشلونة وفالنسيا مراكز لدراسة إرثه العلمي والفكري (5).
وفي السياق ذاته، أسهم جيوفاني دي لا فونتانا بتصميم آلات متأثرًا بالنصوص اليونانية والعربية، كما درس تقنيات الذاكرة الصناعية. وتواصل هذا الإرث مع نيقولا الكوزاني الذي ابتكر منهج "الفن العام للتخمين" مستخدمًا رسومًا ورموزًا ذات صلة وثيقة بأفكار لول (6). ثم جاء هوبز بتصوره للفكر كعملية حسابية، وهو ما أثّر في ليبنتز. ولا يقلّ شأن أثناسيوس كيرشر Athanasius Kircher ، الملقب بـ"أرسطو الجديد"، الذي ساهم في تطوير آليات للتذكّر والبحث عن لغة كونية قادرة على تجاوز لعنة برج بابل (7).
أما في العصر الحديث، فقد تغيّر استعمال مصطلح "الذكاء الاصطناعي" على نحو لافت. فبين 1950 و1975 استُخدم بالمعنى المتقدّم، لكنه فقد بريقه خلال ما سُمّي بـ"شتاء الذكاء الاصطناعي"(AI winter) (1975–1995). ومنذ 2010 عاد المصطلح بقوة حتى أصبح عنوانًا لصناعة مزدهرة تجذب الاستثمارات، وإن كانت تقف على حافة المبالغة والتضخيم الإعلامي (8). ومن بين العلامات الفارقة في نشأة الحقل مقال تورينج "آلات الحوسبة والذكاء" ومناقشة شانون (1950) حول برمجة آلة للعب الشطرنج (9).
وبالعودة إلى العلاقة بين الفلسفة والذكاء الاصطناعي، يتضح أنها كانت وثيقة منذ البداية. ويكفي أن نذكر مقالة تورينج المنشورة عام 1950 في مجلة فلسفية مرموقة، وكذلك حضور الأسس الفلسفية بوضوح في الكتاب التعليمي الأشهر "راسل ونورفيج" (1995) (10). كما جادل سلومان Sloman وماكارثي McCarthy أن الذكاء الاصطناعي الواقعي لا بد أن يتزوّد بفلسفة، وأكّد ماكارثي نفسه أن هذا المجال بحاجة إلى أفكار لم يدرسها بعد سوى الفلاسفة (11).
وفي النهاية، يظهر أن الذكاء الاصطناعي والفلسفة يشتركان في قواسم أعمق من أي علم آخر. فالوصول إلى ذكاء اصطناعي بمستوى الإنسان يتطلب بناء برنامج حاسوبي يشتمل على مفهوم للمعرفة وكيفية اكتسابها، وموقف من مسألة الإرادة الحرة، وإطار أخلاقي يحول دون ارتكاب أفعال غير إنسانية. ومن هنا، فإن الذكاء الاصطناعي ليس مجرد مشروع تقني، بل هو أيضًا مشروع فلسفي وأخلاقي بامتياز (12).
2- تعريف الذكاء الاصطناعي
يُعَدّ مصطلح «الذكاء الاصطناعي» artificial intelligence من المصطلحات التي يمكن اعتبارها كلمات حقيبة، ولذلك فإن مُطلِق هذا المصطلح والمُساهِم في تأسيس مجال الذكاء الاصطناعي، مارفن مينسكي Marvin Minsky، كان يدرك أنّ هذه الكلمات «محمَّلة» بمعانٍ متعدّدة. فنحن نقصد بـ AI في بعض المواضع الجهاز أو الآلة ذاتها، وفي مواضع أخرى النظرية التي تفسّر كيفية عملها. وهنا يصبح سياق الاستخدام هو المحدّد للمعنى المقصود. وغاية الذكاء الاصطناعي، باعتباره حقلًا علميًا، هي اكتساب المعرفة التي تتيح بناء هذه النظم، وتقييم أدائها وحدودها النظرية والعملية. إنه، في جوهره، رغبةٌ في محاكاة القدرات الإدراكية البشرية داخل الآلات. ومن هنا يمكن استبدال مصطلح «الذكاء الاصطناعي» بمصطلح «التكنولوجيا الإدراكية»، ليكون أقرب إلى مضمون التخصّص.(13)
ويُعرّف الذكاء الاصطناعي أيضًا بوصفه فرعًا من علوم الحاسوب يركّز على تصميم أنظمة قادرة على أداء مهام تتطلّب عادةً ذكاءً بشريًا مثل التعلّم، الفهم، الاستنتاج، واتخاذ القرارات.(14) وقد صاغ جون مكارثي John McCarthy – البروفيسور الفخري في جامعة ستانفورد – هذا المصطلح عام 1955، وعرّفه بأنه: "علم وهندسة صنع الآلات الذكية، وخاصة برامج الكمبيوتر الذكية."(15)
لقد أوضح مكارثي في مقترحه البحثي أنّ الدراسة ستُبنى على افتراضٍ أساسه أنّ كل جانب من جوانب التعلّم أو أية سمة من سمات الذكاء يمكن وصفها بدقة كافية بحيث يمكن بناء آلة تحاكيها. وبهذا، فإن الهدف هو جعل الآلات تستخدم اللغة، وتُكوّن التجريدات والمفاهيم، وتحلّ مشكلات مخصّصة للبشر، بل وأن تطوّر من نفسها.(16)
ويتابع ستيوارت راسل وبيتر نورفيج (Stuart Russell & Peter Norvig) هذا التصوّر في كتابهما المرجعي «الذكاء الاصطناعي: مقاربة حديثة»، إذ يريان أنّ الذكاء الاصطناعي مجال واسع يضم المنطق، والاحتمالات، والرياضيات، والإدراك، والاستدلال، والتعلّم، والعمل؛ أي كل شيء من الأجهزة الميكروإلكترونية وصولًا إلى المستكشفات الروبوتية الكوكبية. وهو، بتحديد أدق، دراسة "الوكلاء" الذين يتلقّون مدركات من بيئتهم ويقومون بأفعال استجابة لها.(17)
ومن زاوية أخرى، كتبت مارجريت ت. بودين Margaret Boden في كتابها «الذكاء الاصطناعي: ماهيته ومستقبله» أنّ الذكاء الاصطناعي العام قد يمتلك قدرات عامة على التفكير والإدراك واللغة والإبداع والعاطفة، لكنها تؤكد أنّ "القول أسهل من الفعل".(18) وهي تعرّفه أيضًا بأنه محاولة لفهم الذكاء البشري من خلال محاكاته باستخدام أنظمة حاسوبية.(19)
ويضيف جون سيرل John Searle تمييزًا مهمًا بين ما يسمّيه الذكاء الاصطناعي "الضعيف" والذكاء الاصطناعي "القوي". ففي حين أن الأول لا يتجاوز محاكاة التصرف كما لو كان يفكّر، فإن الثاني يفترض أنّ الحاسوب المبرمج بالشكل المناسب يمكن أن يُعدّ عقلًا حقيقيًا، يمتلك فهمًا وحالات معرفية أصيلة.(20)
وتتنوّع التعريفات المؤسسية والقاموسية أيضًا. فقاموس ميريام- ويبستر يعرّف الذكاء الاصطناعي بأنه "قدرة أنظمة الحاسوب أو الخوارزميات على محاكاة السلوك البشري الذكي"، مستشهدًا بأمثلة مثل التسوّق عبر الإنترنت، البحث في Google، استخدام ChatGPT، أو التنقّل عبر تطبيقات الخرائط.(21) أما تعريف شركة IBM (الآلات التجارية الدولية) فيركز على "استفادة الحواسيب والآلات من تقليد قدرات العقل البشري في حل المشكلات واتخاذ القرارات".(22)
وتضيف الموسوعة البريطانية أنّه "القدرة لدى الحاسوب الرقمي أو الروبوت المتحكم به على أداء المهام المرتبطة عادةً بالكائنات الذكية"، مثل الاستدلال واكتشاف المعنى والتعميم.(23) وفي السياق نفسه، تطرح موسوعة كامبريدج تعريفًا عامًا بوصف الذكاء الاصطناعي "تكنولوجيا الحاسوب التي تسمح بأداء المهام بطريقة مشابهة للطريقة التي ينفذها الإنسان"، مع تخصيص تعريف آخر لأعمال الشركات يركّز على اللغة وفهم الصور والتعلّم من الخبرة.(25) أما «قاموس التراث الأمريكي» فيحدده بأنه "قدرة الحاسوب أو آلة أخرى على أداء الأنشطة التي يُعتقد أنها تتطلب ذكاءً"، و"فرع من علوم الحاسوب يطوّر آلات تمتلك هذه القدرة."(26)
ويتفق معظم هذه التعريفات على أن الذكاء الاصطناعي، بمعناه الواسع، هو أي نظام حسابي اصطناعي يُظهر سلوكًا ذكيًا يساعد على تحقيق أهدافه، سواء أكان محدود القدرات في مهام ضيّقة، أو طموحًا نحو ما يُعرف بالذكاء الاصطناعي العام.(27)
وعلى هذا الأساس، يمكن النظر إلى الذكاء الاصطناعي باعتباره أداة لتوسيع القدرات البشرية: فهو من منظور الأعمال منهجية لحل المشكلات بطرق جديدة(29)، ومن منظور الفلسفة نموذجًا لفهم العقل البشري بوصفه شبيهًا بالحاسوب.(30) كما قدّم "المجموعة رفيعة المستوى للخبراء المعنيين بالذكاء الاصطناعي" تعريفًا يُبرز استقلالية هذه الأنظمة في تحليل بيئاتها واتخاذ إجراءات لتحقيق أهدافها، سواء في العالم الافتراضي (مثل المساعدات الصوتية) أو في الأجهزة المادية (مثل الروبوتات والسيارات ذاتية القيادة).(31)
ويمكن تلخيص ذلك في مجموعة من التعريفات المكمّلة: (1) الذكاء الاصطناعي مجال في علوم الحاسوب يدرس التفكير الشبيه بالبشر. (2) افتراض أنّ الآلات يمكن تحسينها لتكتسب قدرات شبيهة بالذكاء البشري. (3) امتداد للذكاء البشري عبر الحواسيب. (4) دراسة تقنيات استخدام الحواسيب بفاعلية أكبر.(32) وهكذا يتميّز الذكاء الاصطناعي، في صورته الجوهرية، بكونه برامج حاسوبية تسعى لمحاكاة الإدراك البشري وحل المشكلات المعقّدة، اعتمادًا على فرضية أنّ العقل البشري نفسه يمكن تعريفه بدقة بحيث يصبح قابلاً للاستنساخ عبر الآلة.(33)
3- فلسفة الذكاء الاصطناعي
تُعَدّ فلسفة الذكاء الاصطناعي فرعًا من فلسفة التقنية، وهي تُعنى بدراسة الذكاء الاصطناعي وما يطرحه من انعكاسات على المعرفة وفهم طبيعة الذكاء، والأخلاق، والوعي، ونظرية المعرفة، والحصافة. ولا يقتصر اهتمام هذا المجال على الجانب النظري فقط، بل يمتد إلى دراسة إمكانية خلق حيوانات أو بشر اصطناعيين، وهو ما جعل منه حقلًا يستقطب عناية متزايدة من الفلاسفة. ومن هنا برزت فلسفة الذكاء الاصطناعي كحقل مستقل يسعى إلى معالجة إشكالات أساسية، من أبرزها:
1- هل يمكن لآلة أن تتصرّف بذكاء؟ وهل تستطيع حل أي مسألة قد يحلها الإنسان بالتفكير؟
2- هل الذكاء البشري وذكاء الآلة متماثلان؟ وهل يُمكن اعتبار الدماغ البشري في جوهره حاسوبًا؟
3- هل يمكن للآلة أن تمتلك عقلًا وحالات ذهنية ووعيًا على نحو مماثل للكائن البشري؟ وهل بإمكانها أن تشعر بماهية الأشياء؟ (34)
ويمتد تقليد الذكاء الاصطناعي – وفلسفته أيضًا – في مجالات علوم الحاسوب والعلوم المعرفية وفلسفة الحوسبة. وقد مرّ برنامج فهم الذكاء البشري وإعادة إنتاجه بموجات متعاقبة من الصعود والهبوط منذ الأعمال التأسيسية لـ تورينج، غير أنّ ما نشهده اليوم يمثل عودة قوية للاهتمام بالذكاء الاصطناعي. وفي خضم هذه الموجة الجديدة من الأبحاث والتطبيقات، لم يعد السؤال المفهومي وحده في المقدمة، بل بات السؤال العملي: ما الذي يمكن فعله بالذكاء الاصطناعي؟ حاضرًا بقوة إلى جانب التساؤلات النظرية السابقة. وقد أسهم هذا التحوّل، فضلًا عن بعض إساءات الاستخدام التي حظيت بتغطية إعلامية واسعة، في نقل النقاش مباشرة نحو قضايا الأخلاق والحوكمة، وهي قضايا سرعان ما حظيت باعتراف المؤسسات الدولية بأهميتها، مثل المفوضية الأوروبية. وفي هذا السياق، يُعَدّ عمل المجموعة رفيعة المستوى المعنية بالذكاء الاصطناعي مثالًا بارزًا على قيمة التعاون بين التخصصات والقطاعات في معالجة هذه التحديات (35).
4- مفهوم العقل والآلة في الفلسفة الكلاسيكية
لقد شكّل موضوع العقل وطبيعته إحدى القضايا المركزية في الفلسفة الكلاسيكية، إذ انشغل الفلاسفة بمحاولة فهم ماهية الفكر، وإمكان محاكاته أو تفسيره من خلال نماذج ميكانيكية أو منطقية. ويُعَدّ هذا النقاش أساسًا أوليًا لما نعرفه اليوم بالذكاء الاصطناعي.
طُوِّرت عبر التاريخ نماذج تحاكي الدماغ البشري لتتصرف مثل الإنسان «الذكاء البشري» ، وأُطلق عليها فيما بعد اسم الذكاء الاصطناعي والتعلّم الآلي. وإذا كان الذكاء البشري يتميّز بالقدرة على التكيّف مع بيئات جديدة عبر دمج عمليات معرفية متنوعة، فإن الذكاء الاصطناعي يُبنى في الآلات لمحاكاة السلوك البشري وأداء أنشطة شبيهة بالإنسان. وهنا تظهر الصلة بين الإنسان (العقل والدماغ) والذكاء الاصطناعي «الشبكات العصبية الاصطناعية العميقة» ، وهي صلة يمكن إبرازها من خلال مدخل مشكلة الكليات، حيث تُمثّل المفاهيم الأفلاطونية للذكاء البشري مقابل الشبكات العصبية الاصطناعية لفهم ذكاء الآلة. ويتجلى ذلك عبر استخدام سيناريوهات تقليدية ورياضية وواقعية، مع التركيز على مفاهيم مثل الخصائص، والفرادة، والتشابه، والعلاقات، باعتبارها محددات أساسية لطريقة استخدام الإنسان والآلة للذكاء في البيئات المعروفة والمجهولة (36).
فعند أفلاطون يُنظر إلى العقل بوصفه جوهرًا علويًا متصلًا بعالم المُثل، بينما تظل الآلة مجرد أداة مادية خالية من الروح (37). أما أرسطو فقد اعتبر العقل (nous) صورة أرقى من صور النفس، متميّزًا عن الجسد، بحيث لا يمكن للآلة أو الأداة أن تشارك طبيعته (38). ويظهر ذلك بوضوح في عمله العظيم «في النفس» ، حيث يتحدث عن العقل باعتباره قدرة مميزة من قدرات النفس، لها خصائص فاعلة ومنفعلة تعمل معًا لتُتيح التفكير الاستدلالي والسلوك الأخلاقي القيمي. ومن ثمّ، فإن أهمية مفهومي القوة والفعل في ميتافيزيقا أرسطو تُقدّم صياغة مختلفة لمشكلة العقل–الجسد عن الصياغة التقليدية الشائعة في فلسفة العقل (39).
انتقل النقاش لاحقًا مع ديكارت(1596–1650) إلى بُعد جديد؛ فقد اعتبر أن الحيوانات ليست سوى "آلات" معقّدة، في حين يظل العقل البشري «جوهر مفكِّر» جوهرًا مفارقًا لا يُختزل إلى مادة. ورغم إمكانية الآلة تقليد بعض أفعال الإنسان، فإنها عاجزة عن إظهار التفكير أو اللغة الحقيقية (40). وقد عُرِّف النموذج العقلي الديكارتي من خلال أربعة عناصر:
1- الوعى باعتباره جوهرًا قائمًا بذاته.
2- القصدية بوصفها حكرًا على الذهن دون المادة.
3- حجاب الإدراك الذي يفصل الذهن عن العالم المادي.
4- شفافية العقل الكاملة، حيث يعرف كل حالة ذهنية يمتلكها (41).
وقد أشار ديكارت أيضًا إلى فكرة "الإنسان الآلي" (automaton)؛ إذ يقول: «ولكن إذا نظرتُ من النافذة ورأيت رجالًا يعبرون الساحة، كما حدث لي للتو، فإنني أقول عادةً إنني أرى الرجال أنفسهم، تمامًا كما أقول إنني أرى الشمع. ومع ذلك، هل أرى أكثر من قبعات ومعاطف قد تُخفي آلات بشرية؟». ويضيف: «لن يبدو هذا غريبًا على الإطلاق لأولئك الذين يعرفون كم من الأنواع المختلفة من الآلات أو الآلات المتحركة يمكن أن يصنعها الإنسان باستخدام عدد قليل جدًا من الأجزاء، مقارنةً بالكثرة العظيمة للعظام والعضلات والأعصاب والشرايين والأوردة وسائر الأعضاء التي يتألف منها جسد أي حيوان» (42). ومن هنا تُطرح فكرة أن الإنسان الآلي إما آلة لها عقل أو إنسان بجسد آلي–ميكانيكي، وهي محاولة لتجاوز الثنائية التقليدية بين الجسد والعقل.
على غرار ديكارت، اهتم ليبنتز (1646–1716) بالجوهر العقلي من خلال ثنائية الإدراك والإرادة، أو بتعبيره: الإدراك والشهوة. لكنّه صاغ رؤيته ضمن إطار روحاني أقرب إلى الميتافيزيقا، حيث مثّلت المونادات وحدات عقلية جوهرية تتعاقب فيها الإدراكات والشهوات بنظام محدّد. فالإدراكات عنده تعكس تعددية العالم من زوايا نظر مختلفة داخل جوهر بسيط (43).
ترك ليبنتز أثرًا كبيرًا في الرياضيات والمنطق، إذ رأى أن الرموز يمكن أن تُستخدم للتعبير عن كيفية تفكير البشر. وقد أثّر عمله مباشرة في جورج بول بالقرن التاسع عشر، الذي وضع الأسس الأولى للاستدلال الرمزي، مؤكدًا أن القضايا المنطقية يمكن معالجتها بلغة رمزية صرفة، وهو ما مهّد لجبر بول (Boolean Algebra) الذي يُعَد أساسًا للمنطق الحاسوبي (44).
كما اقترح ليبنتز "آلة حسابية" باعتبارها نموذجًا للمنطق، لكنه شدّد على أن الحساب الميكانيكي يختلف عن العقل الواعي القادر على إدراك المعاني. وفي «المونادولوجيا» يؤكد أن كل مونادة تمتلك إدراكًا داخليًا لا يمكن لأي آلة مادية أن تحاكيه (45). وهنا يقترب من القضايا التي يناقشها الذكاء الاصطناعي اليوم، مثل التعامل مع المواقف غير المكتملة أو غير المؤكدة من حيث المعلومات. ففي حديثه عن "اللغة الكونية" شبّهها بـ "آلة للتفكير"، وكتب: «عندما نفتقر إلى البيانات الكافية للوصول إلى اليقين في حقائقنا، يمكن أن يكون من المفيد أيضًا تقدير درجات الاحتمال…» (46).
أما هيوم (1711–1776) فقد تناول العقل من منظور تجريبي صارم؛ فالبُنى الأساسية للحياة العقلية هي التصورات، وتنقسم إلى انطباعات تُكوّن التجربة المباشرة، وأفكار تُكوّن الصور الذهنية الباهتة لهذه الانطباعات. كما قسّم الانطباعات إلى انطباعات حسّية (من التجربة الحسية) وأخرى تأملية (من التجربة العاطفية والوجدانية). وهكذا فكل فكرة بسيطة تُنسخ من انطباع بسيط وتُشبهه (47).
ويرى هيوم أن التصورات – سواء كانت انطباعات أو أفكارًا – هي أشياء تُدرَك مباشرة، فنحن "ننسب وجودًا متميزًا ومستمرًا للأشياء التي نشعر بها أو نراها"، وكذلك ننسب وجودًا مستمرًا للانطباعات ذاتها (48). أما الفرق الجوهري بين الانطباعات والأفكار فيكمن في درجة القوة والحيوية التي تؤثر بها على العقل: فالانطباعات هي التجربة الحية المباشرة، بينما الأفكار ليست سوى صور باهتة لها (49). وقد أوضح ذلك في نص شهير يقول فيه: «سيُقرّ الجميع بسهولة بوجود فرقٍ معتبر بين إدراكات العقل حين يشعر الإنسان بألم الحرارة المفرطة أو بلذّة الدفء المعتدل، وبين اللحظة التي يستعيد فيها لاحقًا هذه الإحساسات في ذاكرته، أو يستبقها بخياله…» (50).
وعليه، فإن هيوم لا يرى العقل جوهرًا ثابتًا بل تدفقًا من الانطباعات والأفكار. أما الآلة، فهي وإن بُنيت على أساس الربط السببي، فإنها تبقى عاجزة عن بلوغ الوعي الإنساني أو تمثيل المعنى العميق للتجربة البشرية (51).
5- تصورات ديكارت، ليبنتز، وهيوم حول العقل والتفكير
شكّل موضوع العقل والتفكير إحدى أهم القضايا المركزية في الفلسفة الحديثة. فمع بداية القرن السابع عشر وما تلاه، اتخذ الفلاسفة من العقل الأداة الأساسية لتأسيس المعرفة وتبريرها، غير أنّهم اختلفوا في تحديد طبيعته ووظيفته وحدوده. ففي حين جعل ديكارت من العقل، أي جوهرًا مفكرًا مستقلًا عن الامتداد، ربط ليبنتز العقل بمبدأ النظام الكوني والأفكار الفطرية، بينما قلّص هيوم دوره إلى تنظيم الانطباعات الحسية دون أي أساس قبلي أو فطري.
يُعدّ رينيه ديكارت المؤسس الحقيقي للفلسفة الحديثة، إذ اعتبر العقل جوهرًا مفكرًا متميزًا عن الجوهر المادي الممتد. ويقوم معيار الحقيقة عنده على الوضوح والتميّز، بحيث لا يُقبل من الأفكار إلا ما يتصف بهذه السمة. ومن هنا جاء الكوجيتو الشهير: Cogito, ergo sum (أنا أفكر، إذن أنا موجود)، الذي عده ديكارت أول يقين غير قابل للشك. فالعقل ليس مجرد ملكة من بين الملكات، بل هو ما يؤسس وجود الذات ويميزها عن العالم المادي.(52)
وقد حاول ديكارت أن يستنبط وجود الإنسان من عملية تفكيره، مظهرًا الأولوية المعرفية للعقل على المادة. ففي المبادئ يقول: «المعرفة التي نمتلكها عن عقولنا لا تسبق فحسب تلك التي لدينا عن أجسادنا، بل هي أيضًا أوضح منها». ومن هنا يظهر أن العقل يبحث عن الجسد، وليس العكس. ففي "المقال عن المنهج" يصرّح ديكارت: «كنت أستطيع أن أتصور أنّي بلا جسد، وأنّه لا وجود لعالم أو مكان أكون فيه؛ غير أنّي لم أستطع قط أن أتصور أنّي غير موجود». لقد نجح ديكارت في تصوّر عدم وجود العالم، بما في ذلك جسده ذاته، لكنه فشل في تصوّر عدم وجوده الشخصي، لأن وجود الذات المفكرة مؤكد حتى في لحظة إنكاره.(53)
وتزداد وضوحًا ثنائية النفس والجسد عنده في قوله: «لقد علمت أني جوهر، تتمثل ماهيته أو طبيعته الكاملة في التفكير، وأن وجوده لا يحتاج إلى أي مكان، ولا يعتمد على أي شيء مادي». وهكذا يجعل ديكارت من "الأنا" جوهرًا مفكّرًا مستقلًا، بحيث يمكن للنفس أن تُعرَف وتُدرَك أكثر من الجسد ذاته. ومن هنا يلمّح ديكارت إلى إمكان وجود النفس مستقلة عن الجسد، مؤكدًا التمايز الجوهري بينهما.(54)
في المقابل، قدّم ليبنتز تصورًا مختلفًا، رافضًا الحصر التجريبي للمعرفة، ومؤكدًا أنّ العقل يمتلك أفكارًا فطرية تمكّنه من إدراك المبادئ الضرورية مثل قانون الهوية أو مبدأ العلية. وقد ربط هذه الرؤية بنظريته عن المونادات: وهي جواهر بسيطة غير مادية، لكل منها إدراك ونزوع ، والعقل البشري هو المونادة العليا التي تعكس الكون بأسره. ويُرجع ليبنتز قدرة العقل على إدراك النظام الكوني إلى الانسجام المسبق الذي أودعه الله في العالم. ومن ثمّ يصبح العقل عنده أداة لفهم التناغم الكوني، لا مجرد استقبال سلبي للانطباعات.(55)
أما ديفيد هيوم ، فقد مثّل الاتجاه التجريبي بامتياز، رافضًا فكرة الأفكار الفطرية التي قال بها ديكارت وليبنتز. يرى هيوم أن العقل لا يولّد أي معرفة مستقلة، بل يعتمد على الانطباعات الحسية التي تُعدّ المصدر الأول لكل أفكارنا. ويقوم عمل العقل على الربط بين هذه الانطباعات وفق مبادئ مثل: التشابه، والتجاور في الزمان والمكان، والعادة أو السببية. وقد ميّز هيوم بين:
1- علاقات الأفكار (Relations of Ideas): مثل الرياضيات والهندسة، وهي يقينية لكنها لا تخبرنا شيئًا عن الواقع.
2- مسائل الواقع (Matters of Fact): وهي ما نعرفه بالتجربة فقط.
وبهذا جعل هيوم العقل محدودًا بحدود الخبرة، فلا يتجاوز التجربة الحسية في تأسيس المعرفة.(56)
6- بدايات الربط بين المنطق الرياضي والحوسبة (فريجه، تارسكي، تورينج)
شهد القرن التاسع عشر وبدايات القرن العشرين تحولات كبرى في التفكير الفلسفي والعلمي، إذ أصبح المنطق الرياضي أداة رئيسية لفهم بنية التفكير واللغة، ومن ثمّ مهد الطريق لظهور الحوسبة الحديثة. وقد مثّل كلٌّ من جوتلوب فريجه، وألفرد تارسكي، وآلان تورينج ثلاث محطات أساسية في هذا المسار؛ فريجه وضع الأساس للمنطق الرمزي، وتارسكي قدّم تعريفًا دقيقًا لمفهوم الصدق في اللغات الصورية، أما تورينج فحوّل تلك الأسس النظرية إلى نموذج رياضي للحوسبة.
أصدر فريجه عمله الشهير "لغة المفاهيم" عام 1879، حيث ابتكر لأول مرة نظامًا رمزيًا يحاكي البنية المنطقية للفكر على نحو صارم يتجاوز منطق أرسطو التقليدي. ويرى فريجه أن التفكير الرياضي يمكن تحليله بلغة شكلية قادرة على التعبير عن القضايا المركبة واستنتاجاتها. ففي الصفحات الأولى يوضح كيف صاغ رموزه لتُمثّل العلاقات المنطقية بين القضايا بعيدًا عن اللغة الطبيعية الغامضة، وبذلك وضع الأساس الأول لربط الرياضيات بالمنطق (57). وكان هدف فريجه في كتابه "أسس علم الحساب" إثبات أن الرياضيات بكاملها يمكن ردّها إلى المنطق عبر نسق صوري صارم ومتكامل (58).
أما ألفرد تارسكي Alfred Tarski(1901- 1983) ، فيُعدّ واحدًا من أبرز فلاسفة المنطق والرياضيات في القرن العشرين. وقد ارتبط اسمه على نحو وثيق بمسألة الصدق في اللغات الصورية، وهي من أعمق المسائل التي واجهت الفلاسفة منذ أرسطو. وقد مثّل مشروعه محاولة لتقديم تعريف دقيق وغير متناقض لمفهوم الصدق، يتجنب المفارقات اللغوية الشهيرة، وعلى رأسها مفارقة الكذاب (59). ومن أبرز صياغاته قوله: «الجملة ’الثلج أبيض‘ صادقة إذا وفقط إذا كان الثلج أبيضً». فهذا التعريف يربط بين اللغة والواقع من خلال مطابقة العبارات مع حال الأشياء، مما أتاح تأسيس علم الدلالة الصوري وأدخل الرياضيات بقوة في دراسة اللغة. لقد كانت مساهمته هذه جسرًا بين المنطق الخالص والتطبيقات اللغوية والفلسفية (60). وقد تطوّرت نظرية الدلالة للصدق على يد تارسكي في ثلاثينيات القرن العشرين، وهي تنطوي على جانبين مترابطين: الأول أنّها نظرية رياضية صورية تُعالج الصدق في إطار نظرية النماذج، والثاني أنّها أطروحة فلسفية تُفصّل هذا المفهوم الذي تناولته الفلسفة منذ العصور القديمة. ومن هنا تُعَدّ هذه النظرية إحدى أكثر الأفكار تأثيرًا في الفلسفة التحليلية المعاصرة (61).
وقبل أن يصبح تورينج "الأسطورة الشبحية" للذكاء الاصطناعي، ظهر تيار آخر هو السيبرنيطيقا (Cybernetics)، الذي أسسه نوربرت فينر (Norbert Wiener) بوصفه حقلًا بينيًا يجمع بين فلسفة العلم والهندسة والبيولوجيا. وقد أثّر هذا التيار في الدراسات المبكرة للشبكات العصبية الاصطناعية (ANNs)، حيث سعى الباحثون إلى نمذجة الذكاء الاصطناعي من منظور بيولوجي واتصالي وهندسي. ومن هنا جاء نموذج M- P الذي قدّمه والتر بيتس (W. Pitts) ووارن مكولّوخ (W. McCulloch) عام 1943، إذ استعملا رموز المنطق الصوري لوصف سلوك الشبكات العصبية. وبعد سنوات، ابتكر عالم النفس فرانك روزنبلات (Frank Rosenblatt) عام 1957 نموذج المُدرِك، وهو شبكة عصبية قادرة على معالجة بعض المهام البصرية الأساسية، وقد لقي رواجًا واسعًا حتى أن بعض وسائل الإعلام الأمريكية أعلنت أن "الآلات على وشك محاكاة الوعي البشري" (62).
لكن النقلة الكبرى جاءت مع آلان تورينج، الذي قدّم مفهوم "الآلة التجريدية" "آلة تورينج" . وقد برهن على أن أي عملية حسابية يمكن اختزالها إلى سلسلة من التعليمات البسيطة تنفذها آلة افتراضية بخطوات متتابعة، وبذلك أسس النظرية الرياضية للحوسبة الحديثة (63). ومن إنجازاته أيضًا اختبار تورينج (1950) الذي صُمم لتعريف الذكاء عمليًا: فإذا لم يتمكن المحاور البشري من التمييز بين ردود إنسان وحاسوب في حوار كتابي، فإن الحاسوب يُعتبر ذكيًا. ولأجل اجتياز الاختبار، يتطلب الأمر قدرات أساسية تشمل:
1- معالجة اللغة الطبيعية.
2- تمثيل المعرفة.
3- الاستدلال الآلي.
4- التعلم الآلي (64).
وقد تجنّب تورينج عمدًا إدخال التفاعل الجسدي في الاختبار، لكنه أشار إلى ما سُمّي لاحقًا بـ اختبار تورينج الشامل، الذي يتطلب من الحاسوب قدرات إضافية كالرؤية الحاسوبية للتعرف على الأشياء، والروبوتات للتعامل مع البيئة المادية (65).
المحور الثاني: الأسس المعرفية والمنطقية
1- دور المنطق الصوري في بناء الخوارزميات
نظرًا لأن علم الحاسوب هو أحد التخصصات التي تتسم فيها الموضوعات التي نرغب في التفكير فيها بدرجة استثنائية من التعقيد، وغالبًا ما تكون مجردة وصورية بحتة، فإن الحاجة إلى المنطق في هذا المجال تتبدى بوضوح خاص.(66)
لقد وُصِف المنطق بأنه حساب التفاضل والتكامل في علم الحاسوب، وذلك لأن المنطق يؤدي دورًا أساسيًا في علم الحاسوب شبيهًا بالدور الذي يؤديه التفاضل والتكامل في العلوم الطبيعية والهندسة التقليدية. فالمنطق يُستخدم في معظم مجالات علم الحاسوب:
1- في بناء الحواسيب مثل معمارية الحاسوب (البوابات الرقمية، التحقق من العتاد)،
2- في هندسة البرمجيات (التوصيف، التحقق)،
3- في لغات البرمجة (الدلالة، نظرية الأنماط، الأنواع المجرّدة للبيانات، البرمجة الكينونية)،
4- في قواعد البيانات (الجبر العلاقي)،
5- في الذكاء الاصطناعي (إثبات النظريات آليًا، تمثيل المعرفة)،
6- في الخوارزميات ونظرية الحساب (التعقيد، القابلية للحساب)، وغيرها.(67)
وانطلاقًا من هذه الاستخدامات، يُعدّ المنطق الصوري حجر الأساس في علوم الحاسوب الحديثة، حيث يوفّر لغة دقيقة لتحليل العمليات الحسابية والخوارزميات. استخدام المنطق الصوري يمكّن الباحثين والمبرمجين من تمثيل المشكلات بدقة عالية، والتحقق من صحة الخوارزميات، وضمان عملها وفق الشروط المنطقية المطلوبة. ووفقًا لـ هوث Huth و رايان Ryan، فإن المنطق الصوري يُستخدم لتحديد خصائص البرامج والخوارزميات بطريقة قابلة للإثبات والتدقيق.(68)
الخوارزمية algorithm هي تسلسل واضح ودقيق وغير ملتبس من التعليمات الأولية، قابل للتنفيذ ميكانيكيًا، ويُقصد به عادةً تحقيق غرض محدّد. وكلمة "خوارزمية" لا تشتق، كما قد يتصور بعض الكلاسيكيين الذين ينفرون منها، من الجذور اليونانية: (ἀριθμός) التي تعني "عدد"، و algos (ἄλγος) التي تعني "ألم". بل هي تحريف لاسم العالم الفارسي في القرن التاسع الميلادي محمد بن موسى الخوارزمي. ويُعرف الخوارزمي على نطاق واسع بكتابه "الكتاب المختصر في حساب الجبر والمقابلة"، الذي اشتُق منه المصطلح الحديث الجبر . وفي مؤلف آخر، وصف الخوارزمي النظام العشري الحديث لكتابة الأعداد والتعامل معها — وخاصة استخدام الدائرة الصغيرة (صفر) للدلالة على الكمية المفقودة — وهو نظام كانت الهند قد طورته قبل ذلك بعدة قرون. وقد عُرفت الطرائق التي وصفها في هذا المؤلَّف، سواء باستخدام الرموز المكتوبة أو الحصى الحسابية، في اللغة الإنجليزية باسم algorism أو augrym، بينما عُرفت رموزه باسم .ciphers (69)
ومع تطور الاستخدام التاريخي، تحولت كلمة "algorism" إلى الكلمة الحديثة "algorithm"، وذلك من خلال ما يُعرف بالاشتقاق الشعبي (folk etymology) من الكلمة اليونانية arithmos (أي: العدد)، وربما أيضًا من الكلمة المذكورة سابقًا algos (أي: الألم). وهكذا، وحتى زمن قريب جدًا، كان مصطلح algorithm يُشير حصريًا إلى الأساليب الميكانيكية للحساب العشري القائم على القيمة المكانية باستخدام الأرقام "العربية". وكان يُطلق على الأشخاص المدرّبين على تنفيذ هذه الإجراءات بسرعة ودقّة اسم algorists أو computators، أو ببساطة:. computers .(70)
وتقوم الخوارزميات على قواعد منطقية واضحة، بدءًا من المنطق البوليني (Boolean Logic) وصولاً إلى (المنطق القضي أو منطق القضايا الكَميّة): (Predicate Logic). يمكن تمثيل شروط اتخاذ القرار، الحلقات التكرارية، والتحقق من الحالات المختلفة داخل الخوارزمية باستخدام المنطق الصوري.(71) على سبيل المثال، يتم استخدام الرموز المنطقية ∧، ∨، ¬ لتمثيل الجمع، الجمع المنطقي، والنفي، كما تُستخدم الكميات ∀ و ∃ في المنطق الوصفي لتحديد خصائص عناصر البيانات المختلفة.(72)
وبناءً على ذلك، يمكن تعريف الخوارزمية بأنها مجموعة من التعليمات أو القواعد المصممة لأداء مهمة أو واجب أو تحقيق هدف محدد. عادةً ما تُصمَّم هذه المجموعة من القواعد بطريقة متسلسلة أو خطوة بخطوة. ومن منظور مبسط، تشبه الخوارزميات الأنشطة اليومية التي تتطلب خطوات محددة لتنفيذ مهمة معينة. على سبيل المثال، وصفات الطهي تشبه الخوارزميات لأنها تسرد مجموعة من التعليمات المتسلسلة التي يجب اتباعها لضمان إعداد الوجبة المطلوبة بشكل صحيح. ومن الناحية التكنولوجية، تمثل الخوارزمية الأساس الذي يسمح لأجهزة الكمبيوتر والهواتف الذكية والمواقع الإلكترونية وما شابهها بالعمل واتخاذ القرارات المطلوبة. وهناك خمس خصائص يجب أن تمتلكها الخوارزمية:
1- الانتهاء: يجب أن تنتهي الخوارزمية دائمًا بعد عدد محدد من الخطوات.
2- الوضوح: يجب أن تكون خطوات الخوارزمية واضحة، مفصلة، وغير غامضة، مع التركيز على ترتيب الخطوات وطريقة تنفيذها.
3- الإدخال: وهو تحويل قواعد الخطوات خطوة بخطوة أثناء الحوسبة لإنتاج الناتج.
4- الإخراج: وهو نتيجة الإدخال التي تُنتج الحل للمشكلة أو المهمة الكلية.
5- الفعالية: يجب أن تكون الخوارزمية قادرة على أداء كل خطوة بشكل صحيح لضمان تحويل الإدخال إلى الإخراج بنجاح ضمن وقت محدود.(73)
ويمكن توضيح دور المنطق الصوري والخوارزميات بأمثلة عملية بارزة، مثل:
1- البرمجة المنطقية: لغات مثل Prolog تعتمد بشكل كامل على المنطق الصوري لتحديد العلاقات بين البيانات والعمليات.(74)
2- التحقق الرسمي للبرمجيات: أدوات مثل Coq(هى نظام إثبات تفاعلي أو أداة برمجية/رياضية) و إيزابيل (Isabelle) (هو مُثبِت براهين تفاعلي أو مساعد براهين) تستخدم المنطق الصوري لإثبات صحة البرمجيات والخوارزميات.(75)
3- تصميم الدوائر الرقمية: يتم تمثيل البوابات المنطقية (AND، OR، NOT) والخوارزميات الرقمية باستخدام المنطق الرمزي، ما يضمن صحة التصميم قبل تصنيعه.(76)
ويُظهر هذا كلّه أن المنطق الصوري يؤدي دورًا حيويًا في بناء الخوارزميات الحديثة، إذ يوفّر أساسًا لتصميم البرامج، التحقق من صحتها، وتحليلها بكفاءة عالية. كما أنّ الاعتماد على المنطق الصوري لا يقتصر على علوم الكمبيوتر النظرية، بل يمتد أيضًا إلى التطبيقات العملية في البرمجة، هندسة البرمجيات، وتصميم الدوائر الرقمية.
ولإيضاح امتداد البعد التاريخي للخوارزميات، يمكن الرجوع إلى الإغريق الكلاسيكيين الذين تعاملوا مع الأعداد (أو بالأدق المقادير) باعتبارها مقاطع مستقيمة بطول معين، وكانوا يتلاعبون بها بأداتين أساسيتين هما: الفرجار (compass) والمسطرة (straightedge). وهما أداتان استُخدمتا منذ قرون في أعمال المسّاحين والمهندسين والمعماريين. وباستخدام هاتين الأداتين فقط، اختزل الإغريق عدة عمليات هندسية معقدة إلى عمليات أولية، بدءًا من نقاط مرجعية معلّمة، مثل: رسم الخط المستقيم الفريد المار بنقطتين مختلفتين، رسم الدائرة الفريدة التي مركزها نقطة معلّمة وتمر بنقطة أخرى، تحديد نقطة التقاطع (إن وُجدت) بين خطين، تحديد نقطة أو نقاط التقاطع (إن وُجدت) بين خط ودائرة، وتحديد نقطة أو نقاط التقاطع (إن وُجدت) بين دائرتين.(77)
2- العلاقة بين نظرية المعرفة والذكاء الاصطناعي
يُعدّ الذكاء الاصطناعي من أبرز حقول البحث في العصر الحديث، حيث يجمع بين العلوم التقنية والأسئلة الفلسفية العميقة. ومن بين الفروع الفلسفية التي ترتبط به ارتباطًا وثيقًا نظرية المعرفة، إذ يتعلق الذكاء الاصطناعي بقدرة الآلة على "المعرفة" والتعلّم واتخاذ القرار، وهي موضوعات أصيلة في النظرية المعرفية منذ أرسطو وحتى الفلسفة التحليلية المعاصرة.(78)
تُعرّف المعرفة تقليديًا بأنها "الاعتقاد الصادق المبرر" (Justified True Belief)، وفق ما قرره أفلاطون في محاورة "ثياتيتوس".(79) وعندما نحاول إسقاط هذا التعريف على الذكاء الاصطناعي، تبرز إشكالية أساسية:
1- هل الآلة تملك "اعتقادًا" بالمعنى الإنساني؟
2- وهل ما تنتجه من مخرجات يمكن وصفه بالصدق أو الكذب؟
تُظهر هذه الأسئلة أن أي نقاش حول الذكاء الاصطناعي لا ينفصل عن نظرية المعرفة، بل يستلهم أسسها في تحليل مفاهيم "المعرفة"، "الصدق"، و"التبرير".(80)
وإذا كان أرسطو قد رأى أن القياس المنطقي هو أداة العقل الأساسية، فإن الذكاء الاصطناعي ورث هذه الرؤية حين ارتبط في بداياته بمحاولة "ميكنة" الاستدلال المنطقي.(81) وهكذا ظهر:
1- في الذكاء الاصطناعي: أنظمة "البرهان الآلي" التي تهدف إلى إنتاج استنتاجات صحيحة من مقدمات معطاة.
2- في نظرية المعرفة: بقاء السؤال الفلسفي حول كيفية ضمان صدق المقدمات ذاتها وكيفية تبريرها.
ومن هنا يظهر الفارق بين المنطق الصوري للآلة والتجربة الإنسانية المليئة بالشك والاحتمال.(82)
وبما أن جوهر الذكاء الاصطناعي يقوم على اكتساب المعرفة، فإن له ارتباطًا وثيقًا بالفرع الفلسفي المعروف بـ نظرية المعرفة (الإبستمولوجيا)، مما جعل دور الفلاسفة محوريًا في تطويره.(83) وتبعًا لذلك، تشهد الحقول المعرفية اليوم تطورًا ملحوظًا في ظل التقدم في الذكاء الاصطناعي (AI)، الأمر الذي يثير تساؤلات فلسفية حول طبيعة المعرفة الاصطناعية، التحقق، والمصداقية. ويتناول الباحثون هذا التفاعل تحت مسمى "الإبستمولوجيا الرقمية" أو "الإبستمولوجيا الاصطناعية"، إذ يسعون إلى فهم كيفية إنتاج المعرفة عبر الأنظمة الحسابية، وكيف لم يعد الاعتماد على الشك الاحتمالي والأنماط معيارًا حصريًا للحقيقة كما كان في المعرفة البشرية التقليدية.(84)
أ- الحقيقة الخوارزمية وإعادة تشكيل السلطة المعرفية
يقصد بـ"الحقيقة الخوارزمية" تلك النتائج أو المخرجات التي تقدمها أنظمة الذكاء الاصطناعي ومحركات البحث ومنصات التواصل الاجتماعي بوصفها "حقائق" أو "معرفة" موضوعية. غير أنّ هذه "الحقيقة" لا تعكس الواقع بشكل مباشر، بل تُبنى على عمليات إحصائية وخوارزمية تنتجها الشركات التقنية الكبرى.
الخوارزميات هي الوسائل التي تعتمد عليها الحواسيب لأداء مهامها. ومع ذلك، فإن هذه المهام مقيدة بالمنطق الإجرائي؛ وليس من قبيل الصدفة أن لغات البرمجة تتفاعل مع العتاد الصلب على شكل "مجموعات من التعليمات"، وهي مفاتيح إلكترونية منطقية محددة. ومن ثم، يمكن فهم الخوارزميات بصورة أوسع على أنها مجموعات من التعليمات تُنتج نتائج منتظمة. على سبيل المثال، يستشهد إد فين (Ed Finn) بتعريف روبرت سيدجويك (Robert Sedgewick) "البراجماتي" للخوارزمية بوصفها ببساطة "طريقة لحل مشكلة". ويعرّفها توتارو ونينو (Totaro & Nino) بأنها "أحد الأشكال المحددة" للدالة الرياضية. وحتى علماء الحاسوب الأوائل مثل أ. أ. ماركوف (A. A. Markov) أكدوا على الطبيعة الإجرائية للخوارزمية أكثر من أي عناصر تعتمد بالضرورة على البرمجيات. بالنسبة لماركوف، فإن الخوارزميات "تمتلك ثلاثة متغيرات: الدقة، العمومية، والحسم… [لديها] عدد محدود من الحالات التي يمكن وصفها وهي دائمًا توقعية… [وهي] عامة باعتبارها بوابات منطقية قادرة على إصدار بيانات صحيحة/خاطئة وليست أوصافًا محددة لمحتوى الإشارة… وهي حاسمة—إما أن يطلق الشبكة العصبية أو لا، وبالتالي يكون البيان صحيحًا تمامًا أو خاطئًا، ولا توجد تفسيرات أخرى للموقف".(85)
نحن نعيش في عصر الخوارزميات. بشكل متزايد، أصبحت القرارات التي تؤثر على حياتنا—مثل اختيار المدرسة التي نلتحق بها، أو ما إذا كنا سنحصل على قرض سيارة، أو مقدار ما ندفعه مقابل التأمين الصحي—لا تتخذ بواسطة البشر، بل بواسطة نماذج رياضية. نظريًا، ينبغي أن يؤدي هذا إلى مزيد من العدالة: فالجميع يُحكم عليهم وفقًا لنفس القواعد، ويتم القضاء على التحيز. لكن كما تكشف كاثي أونيل في كتابها «أسلحة الدمار الرياضي: كيف يزيد تحليل البيانات الضخمة من عدم المساواة ويهدد الديمقراطية»، فإن العكس هو الصحيح. النماذج المستخدمة اليوم غامضة، وغير منظمة، ولا يمكن الطعن فيها، حتى عندما تكون خاطئة.
وترى أونيل أن الخوارزميات ليست مجرد أدوات تقنية، بل قوى اجتماعية وسياسية تعيد تشكيل السلطة والمعرفة. فهي تعمل كـ"صناديق سوداء" تؤثر على القرارات الفردية والجماعية، وغالبًا ما تؤدي إلى تكريس التمييز الاجتماعي وتوسيع الفجوة الاقتصادية وإضعاف المساءلة الديمقراطية. وإذا تُركت هذه الخوارزميات بلا رقابة، فإنها تتحول من أدوات للحوسبة إلى أسلحة معرفية تهدد العدالة، وتعيد توزيع السلطة بطريقة غير متكافئة بين الأفراد والمؤسسات.وعندما نستعرض كتابها"أسلحة الدمار الرياضى:كيف يزيد تحليل البيانات الضخمة من عدم المساواة ويهدد الديمقراطية" نجد موقفها من الخوارزميات كما يلى:
1- الخوارزميات ليست محايدة
تؤكد كاثي أونيل أن الخوارزميات لا تعمل في فراغ رياضي بحت، بل تعكس خيارات بشرية سابقة تحدد نوعية البيانات المستخدمة، ومعايير النجاح، وما يتم استبعاده. ومن ثمّ فهي ليست محايدة كما يُتصور، بل تحمل في بنيتها التحيزات الاجتماعية والاقتصادية ذاتها التي انبنت عليها. ولهذا تصف أونيل بعض الخوارزميات بأنها «أسلحة دمار رياضي» (Weapons of Math Destruction)، إذ تتميز بخصائص تجعلها بالغة الخطورة: فهي غامضة لا يفهم أحد آليات عملها (أشبه بالصندوق الأسود)، وتطبق على نطاق واسع يشمل ملايين الأفراد في مجالات حيوية، كما أنها في الغالب غير قابلة للطعن أو المراجعة. وتبرز خطورتها بشكل خاص في التعليم، حيث تُستخدم لتصنيف الطلاب والمدارس، وفي سوق العمل عند اختيار الموظفين، وكذلك في العدالة الجنائية عبر التنبؤ بمعدلات الجريمة، فضلًا عن دورها في التمويل والتأمين. في كل هذه المجالات، تميل الخوارزميات إلى إعادة إنتاج الظلم بدلًا من تقليصه، لأنها تعتمد على بيانات تاريخية مثقلة بالتمييز، فتعمل على ترسيخ الفوارق الاجتماعية وتعميقها. ومن ثمّ، تدعو أونيل إلى الشفافية في تصميم هذه النماذج، وإلى وجود رقابة ومساءلة صارمة، بل وتشريعات ومعايير أخلاقية تضبط استخدامها، بحيث لا تتحول إلى أداة لإعادة إنتاج السلطة والهيمنة باسم العلم والموضوعية (86).
ويذهب نيكولاس كار في الاتجاه نفسه عندما يرى أن الاعتماد على محركات البحث، مثل غوغل، جعل الحقيقة مرتبطة بخوارزميات ترتيب الصفحات؛ أي أنها لم تعد عملية كشف معرفي خالص، بل صارت نتاجًا لترتيب احتمالي يفرضه منطق الخوارزمية (87). وهذا ما يشير إلى تحول جذري في مفهوم السلطة المعرفية: فبينما كانت هذه السلطة تاريخيًا مرتبطة بالمؤسسات الأكاديمية أو الدينية أو السياسية، باتت اليوم متمركزة في الشركات التكنولوجية العملاقة التي تتحكم في الخوارزميات وتعيد تشكيل علاقتنا بالمعلومة. وهنا تظهر رؤية شوشانا زوبوف، التي ترى أن هذه الشركات لم تعد تكتفي بالتحكم في تدفق المعلومات، بل تجاوزت ذلك إلى إعادة تشكيل السلوك البشري ذاته عبر السيطرة على البيانات، وهو ما منحها سلطة معرفية غير مسبوقة (88).
ويعزز فرانك باسكوال هذا الطرح في كتابه مجتمع الصندوق الأسود، حيث يوضح كيف أن الخوارزميات السرّية في القطاع المالي أضحت تحكم قرارات الاستثمار والإقراض وإدارة المخاطر. لقد كان يفترض بهذه الخوارزميات أن تحل محل التحيز البشري بآليات موضوعية عقلانية، غير أنها تحولت إلى غطاء للمضاربة والاستغلال، مضاعفةً بذلك من قوة الأشكال الكلاسيكية للاستغلال الذاتي. وما تزال هذه الخوارزميات، المحجوبة خلف طبقات من التعقيد التقني والسرية القانونية، تحول دون أي مساءلة حقيقية للشركات الكبرى، حتى بعد الإصلاحات التي جاءت مثل قانون دود–فرانك (89).
هذا التحول يقودنا إلى إعادة التفكير في مفهوم الحقيقة نفسه. ففي الفلسفة الكلاسيكية، من أرسطو إلى تارسكي، ارتبطت الحقيقة بمطابقة القول للواقع. أما في العصر الرقمي، فقد برزت ما يمكن تسميته بـ«الحقيقة الخوارزمية» التي لا تقاس بالصدق أو الكذب، بل بالكفاءة والفعالية. ويذهب لوتشيانو فلوريدي إلى أن الحقيقة في هذا السياق لم تعد مجرد تمثيل، بل أصبحت «بنية معلوماتية» تعيد صياغة طبيعة المعرفة ذاتها . ويضيف دافيد بير أن ثقة الناس بنتائج الخوارزميات تفوق أحيانًا ثقتهم بالبشر، حتى وإن لم يدركوا كيفية عملها، مما يضفي عليها سلطة قائمة على «حياد مزعوم» للتقنية (90).
وفي الاتجاه ذاته، يوضح دونج هي شين (Donghee Shin) في مقاله "أتمتة نظرية المعرفة" أن أنظمة الذكاء الاصطناعي لا تقتصر على نقل المعرفة أو تنظيمها، بل تنتج الحقيقة نفسها من خلال بنيتها الحسابية والإحصائية. وهي بذلك تعيد تعريف مؤسسات السلطة المعرفية، ليس على أساس البديهيات أو التوافق الثقافي، بل على أساس النماذج الرياضية والتحقق الإحصائي (91).
وأخيرًا، يجدر الإشارة إلى أن هذا الجدل الفلسفي يرتبط بشكل وثيق بتطور «علم المعلومات النظري»، الذي يجمع بين علوم الحاسوب والمنطق الصوري ونظم الاتصالات، ويُعنى بنمذجة أنظمة معالجة المعلومات وتحليلها. فالخوارزميات هنا ليست مجرد أدوات تقنية، بل تشكل بنية معرفية تحدد كيفية جمع البيانات وتفسيرها والتحقق منها (92).
ب- الإمكانيات الأصولية للذكاء الاصطناعي كحقل إبستمولوجي
يستكشف المفكر التكنولوجي المعروف كيفن كيلي (Kevin Kelly) اثني عشر من الضرورات التكنولوجية الرئيسة التي من المتوقع أن تشكّل العقود الثلاثة القادمة وتحوّل حياتنا. واستنادًا إلى الاتجاهات الراهنة، يقدم كيلي خارطة طريق متفائلة للمستقبل، موضحًا كيف أن التطورات مثل الواقع الافتراضي، واقتصاد الطلب الفوري، والذكاء الاصطناعي الشامل، تنبع جميعها من قوى قوية ومترابطة. ومن خلال دراسته لمفاهيم مثل التمكين العقلي، والمشاركة، وإعادة المزج، يكشف عن التفاعل المعقّد بين هذه الاتجاهات وتداعياتها العميقة على طرق عملنا وتعلمنا وتواصلنا. إنه يشجع القرّاء على تبنّي هذه التحولات، موفّرًا رؤى أساسية للتنقل في المشهد المتغيّر للأعمال والتكنولوجيا، ومقدّمًا استراتيجيات عملية للاستفادة من التغييرات القادمة(93).
في هذا السياق، برهن كيلي، في فصل بعنوان « الذكاء الاصطناعي والإبستمولوجيا الفاعلة »، أن الذكاء الاصطناعي ليس مجرد أداة، بل يمثل إطارًا معرفيًا فاعلًا لفهم طبيعة المعرفة ذاتها. فهو يرى أن الذكاء الاصطناعي يُعدّ نهجًا إبستمولوجيًا فعّالًا ، قادرًا على توليد فرضيات واختبارها بطرق لا تعتمد على العقل البشري فقط(94).
ويقول كيلي في هذا الصدد: «يمتلك الذكاء الاصطناعي القدرة على إحداث ثورة في حياتنا بشكل أعمق من الثورة الصناعية. حتى الإضافات البسيطة للذكاء الاصطناعي إلى العمليات القائمة تعزز الكفاءة بشكل ملحوظ. الهدف هو جعل هذه القدرة الذكية رخيصة أو حتى مجانية، بما يدعم التجارة والتقدم العلمي. كان الافتراض الأولي أن الحواسيب العملاقة ستستضيف الذكاء الاصطناعي، لكنه سينشأ بدلاً من ذلك من شبكة عالمية من الأجهزة المترابطة، ويتطور مع مساهمة المزيد من الأفراد والبيانات فيه». ويضيف: «من المرجح أن يشبه مستقبل الذكاء الاصطناعي خدمات السحابة التي توفر ذكاءً مستمرًا، بدلاً من وجود كيان واحد متفوق. سيؤدي ذلك إلى موجة من التمكين العقلي عبر قطاعات متعددة، حيث يسعى كل قطاع لاستكشاف طرق لتعزيز عملياته باستخدام الذكاء الاصطناعي. وتشبه هذه الظاهرة التطورات التكنولوجية السابقة مع الكهرباء، حيث يؤدي أتمتة العمليات إلى تحسينات كبيرة»(95)
ج- الدمج بين الأخلاقيات والإبستمولوجيا في الذكاء الاصطناعي
لقد استحوذ الذكاء الاصطناعي (AI) في السنوات الأخيرة على خيال الجمهور، مثيرًا في الوقت ذاته الحماسة والقلق بشأن الإمكانات التحويلية لهذه التكنولوجيا المتسارعة التطور. ومع تزايد تعقيد أنظمة الذكاء الاصطناعي واندماجها في تفاصيل حياتنا اليومية، أخذ يتبلور إدراك متنامٍ بأن تطوير هذه التقنيات وتوظيفها يثيران أسئلة أخلاقية عميقة. وهكذا برز موضوع "أخلاقيات الذكاء الاصطناعي" فجأة كقضية محورية، جاذبًا اهتمام صانعي السياسات وقادة الصناعة والباحثين الأكاديميين والجمهور العام على حد سواء. ويكمن وراء هذا الاهتمام الواسع قلق مشترك إزاء التداعيات الاجتماعية والعواقب غير المقصودة التي قد تنشأ مع اتساع حضور الذكاء الاصطناعي. فما هي الالتزامات الأخلاقية الملقاة على عاتق من يصممون هذه الأدوات التكنولوجية القوية، أو ينفذونها، أو يستخدمونها، وهي أدوات تحمل في طياتها إمكانات هائلة وقد تكون مقلقة أيضًا؟ هذا هو السؤال المركزي الذي يقف في صميم النقاش الناشئ حول البعد الأخلاقي الإنساني للذكاء الاصطناعي. في العدد الافتتاحي من "المجلة الدولية حول المسؤولية"، أوضح المؤسس ورئيس التحرير تيري بيتزل أن مصطلح "المسؤولية" يمكن أن يتسع ليشمل طيفًا من المعاني، بدءًا من المفاهيم الأخلاقية وصولًا إلى القانونية. غير أنّ بيتزل خلص إلى أنّ تركيز المجلة ينصب بصورة عامة على "القضايا المتنوعة والمعقّدة التي يحددها ويثيرها السؤال: من أو ما هو المسؤول عن فعل ماذا، ولصالح من، ولماذا؟".(96)
وانطلاقًا من هذا التساؤل المحوري حول المسؤولية، يصبح من الضروري عند استكشاف الأسس الفلسفية للمسؤوليات الأخلاقية الملقاة على عاتق مصممي الذكاء الاصطناعي النظر في النظريات الأخلاقية والفلسفية التي شكّلت فهمنا للالتزامات التي يتحملها الأفراد والمؤسسات تجاه الآخرين والمجتمع. فهذه الأطر الفلسفية تقدّم رؤى متباينة، وإن كانت متكاملة في جوهرها، حول معنى التصرف الأخلاقي وطبيعة المسؤوليات الأخلاقية. ومن خلال التعمق في طيف من النظريات الأخلاقية، بدءًا من الواجب والنتائج ونظرية العقد الاجتماعي، وصولًا إلى أخلاقيات الرعاية، يمكننا أن نطوّر فهمًا أكثر دقة وشمولًا للاعتبارات الأخلاقية التي ينبغي أن توجه تصميم وتطوير تقنيات الذكاء الاصطناعي. إذ تقدّم كل واحدة من هذه النظريات رؤى مميزة حول طبيعة المسؤولية الأخلاقية، والعوامل التي يجب أخذها في الاعتبار عند إصدار الأحكام الأخلاقية، والمبادئ التي ينبغي أن تؤسس لأفعالنا.(97)
وفي هذا السياق، يأتي مقال "التواصل بين الأخلاقيات وإبستمولوجيا الذكاء الاصطناعي" ليؤكد أن التحدي لا يقتصر على تحديد المسؤوليات الأخلاقية فقط، بل يشمل أيضًا بناء هيكل معرفي أخلاقي شفاف في أنظمة AI. فهو يقترح الانتقال من الثقة في نتائج النظام فحسب إلى الثقة في طريقة الوصول إلى هذه النتائج نفسها، الأمر الذي يدمج القيم الأخلاقية (مثل الشفافية والعدالة) مع الاعتبارات المعرفية.(98)
د- مسألة الوعي والإدراك: هل يمكن للآلة أن "تعرف"؟
تُعدّ مسألة ما إذا كان بإمكان الآلة أن تمتلك وعيًا أو أن تكون قادرة على المعرفة من أعقد الإشكالات في الفلسفة المعاصرة، إذ تقع عند تقاطع نظرية المعرفة وفلسفة الذهن والذكاء الاصطناعي. ويثور السؤال حول ما إذا كان سلوك الآلة – مهما بلغ من التعقيد – يمكن أن يُقارن بالفعل بالمعرفة الإنسانية، أم أنه يظل مجرّد معالجة صورية للرموز دون مضمون دلالي.(99)
وانطلاقًا من هذا التساؤل، يبرز تحدٍّ محوري يتمثل في "مشكلة الإطار"، التي لم تنجح الذكاءات الاصطناعية حتى الآن في حلها بصورة كاملة. فالذكاء البشري يتميّز بخصائص لا يشاركها فيه الذكاء الاصطناعي، من أهمها:
1- القدرة على إصدار حكم مناسب في المواقف المجهولة باستخدام المعرفة الضمنية حتى في غياب قاعدة بيانات كاملة.
2- القدرة على تحديد الأفعال الأكثر أهمية في مواقف تهدد البقاء (حكم الأهمية).
3- القدرة على اختيار فعل محدّد وتنفيذه على الفور، مع تجاهل البدائل الأخرى بشكل حاسم.
ويبدو أنّ الذكاء الاصطناعي عاجز عن امتلاك هذه الخصائص الثلاث، ما لم يُطوَّر ليتمكن من حل مشكلة الإطار.(100)
وعلى الرغم من غياب إجماع قاطع حول تعريف مشكلة الإطار، إلا أنّها تُختزل غالبًا في السؤال: كيف يمكن للذكاء الاصطناعي أن يحتفظ بـ "المعرفة الضمنية" التي يمتلكها جميع البشر تقريبًا في سياقاتهم اليومية؟ ولتوضيح ذلك، يمكن الاستعانة بمثال روبوت نادل في مطعم: فهو يحتاج إلى معرفة أن الماء يفيض إذا صُبّ بكثرة في كوب، وأن الكوب يتحرك مع الصينية إذا نُقلت، وأن السائل داخل الكوب يتبع حركة الكوب. لكن، لا حاجة لإمداده بمعرفة غير ذات صلة، كأن السائل لا يتبخر بفعل حرارة الاحتكاك عند تحريك الصينية. هذا يوضح أن الذكاء البشري يتسم بالانتقاء الدقيق للمعارف الضرورية تبعًا للسياق، وهي قدرة يفتقر إليها الذكاء الاصطناعي.(101)
وتأكيدًا لذلك، يمكن القول إن الذكاء البشري يحتفظ بالخصائص المميزة السابقة مقارنةً بالذكاء الآلي. فالبشر قادرون على إصدار أحكام في مواقف غير مألوفة، واتخاذ قرارات مستقلة حول الأولويات، وتنفيذ أفعال حاسمة دون التردد أمام بدائل عديدة. ولكي يرقى الذكاء الاصطناعي إلى هذا المستوى، يجب أن يتغلب على مشكلة الإطار التي تظل عقبة مركزية أمام تقدمه.(102)
وفي هذا الإطار، يقدّم هوبيرت درايفوس Dreyfus نقدًا لاذعًا للذكاء الاصطناعي التقليدي، مجادلاً بأن تجاوزه لمشكلة الإطار يتطلب تحوّله إلى ما يسميه "الذكاء الاصطناعي الهيدجري"، أي القادر على استيعاب بُعد "الاستعداد للاستخدام". غير أن مراجعاته لعدة محاولات بحثية – مثل تجارب رودني بروكس على الروبوتات – تكشف محدودية هذه الجهود. فرغم ابتكار بروكس "هيكلية التسلسل التحتاني"، التي مكّنت الروبوتات من الاستجابة المباشرة لمحيطها عبر حسّاساتها، فإن هذه الروبوتات تظل مقيدة بالتفاعل مع الميزات الثابتة للبيئة، من دون فهم السياق أو التغير في الأهمية. وبذلك يخلص درايفوس إلى أن هذه الروبوتات لا تزال عاجزة عن حل مشكلة الإطار.(103)
1- حجة الغرفة الصينية (جون سيرل)
طرح الفيلسوف الأمريكي جون سيرل حجته الشهيرة المعروفة بـ "الغرفة الصينية" من أجل معالجة السؤال الجوهري: هل يمكن للآلة أن تفكر بالفعل؟ فقد قدّم سيرل سلسلة من التساؤلات المترابطة التي قادته إلى صياغة اعتراضه على الذكاء الاصطناعي القوي.
ففي البداية، يذكّرنا بالسؤال القديم المألوف: «هل يمكن لآلة أن تفكر؟» ويجيب بأن الجواب بديهيًا نعم، فنحن في الحقيقة آلات من نوع معين. ثم ينتقل إلى تساؤل آخر: «هل يمكن لتحفة من صناعة الإنسان أن تفكر؟» وعلى افتراض أننا استطعنا تصنيع آلة بنظام عصبي مماثل لنظامنا البشري، فإن الجواب يظل نعم، لأن مطابقة الأسباب تؤدي إلى مطابقة النتائج. ومن ثم يصل إلى السؤال الأكثر تحديدًا: «هل يمكن لجهاز كمبيوتر رقمي أن يفكر؟» وإذا كان المقصود بالكمبيوتر أي تجسيد لبرنامج حاسوبي، فمرة أخرى يبدو الجواب بالإيجاب.
غير أن سيرل يلفت النظر إلى السؤال الأهم: «هل يكفي مجرد امتلاك البرنامج الصحيح ليكون ذلك شرطًا كافيًا للفهم؟» وهنا يجيب بالنفي. فالتلاعب بالرموز الصورية لا يكفي لإنتاج المعنى أو القصدية . وما يبدو من قصدية عند الكمبيوتر ليس إلا انعكاسًا لإدراك المبرمجين والمستخدمين، لا صفةً أصيلة في النظام نفسه.(104)
ومن أجل توضيح موقفه، صاغ سيرل مثال "الغرفة الصينية"، حيث يُظهر أن الإنسان داخل الغرفة – رغم اتباعه تعليمات برمجية دقيقة للتعامل مع الرموز الصينية – لا يكتسب أي فهم للغة الصينية ذاتها. فالبرنامج الشكلي لا يضيف شيئًا إلى قدرة الإنسان على الفهم، وهو ما يبرهن على أن التفكير لا يمكن أن ينشأ من البرامج وحدها. ويرى سيرل أن التفكير يحدث فقط بواسطة نوع خاص من الآلات، هي الدماغ البشري أو ما يماثله من حيث القوى السببية. ولذلك، فالذكاء الاصطناعي القوي – الذي يركّز على البرامج – لم يقدّم شيئًا جوهريًا عن التفكير، لأن البرامج ليست آلات حقيقية. ومن هنا يؤكد أن القصدية ظاهرة بيولوجية مشروطة بالكيمياء الحيوية، كما هو الحال مع الرضاعة أو التمثيل الضوئي التي لا يمكن محاكاتها ببرنامج حاسوبي.(105)
ويضيف سيرل أن التفريق بين "العقول" و"الحالات الذهنية" و"الوعي" يسمح بتمييز جوهري بين الذكاء الاصطناعي القوي والذكاء الاصطناعي الضعيف. فحتى لو افترضنا وجود برنامج يتصرف تمامًا كالعقل البشري، فإن المسألة الفلسفية الأعمق – مسألة الفهم الحقيقي – تظل قائمة من دون إجابة.(106)
ومع ذلك، لم تمر حجة سيرل دون اعتراضات. فقد واجهت "الغرفة الصينية" انتقادات من فلاسفة بارزين مثل روجر بنروز Roger Penrose (2007)، وستيفان هارنارد Stevan Harnard (2007)، ومارك بيشوب Mark Bishop (2007)، وكوبلاند Copeland (1993، 2007). وتنوّعت هذه الاعتراضات بين انتقادات شكلية ومنطقية، وأخرى تتعلق بفهم سيرل لمبادئ الحوسبة والعلوم المعرفية. وأشار بعضهم إلى أن سيرل قد أساء فهم أطروحات تورنج، خصوصًا في خلطه بين "المحاكاة" و"الاستنساخ"، وهو ما جعل نتائجه موضع جدل مستمر.(107)
2- نظرية "آلة تورينج الواعية"
يُعدّ آلان تورينج من أوائل من طرحوا سؤالًا فلسفيًا وعلميًا حول إمكانية تفكير الآلة، إذ قال: «قد نأمل أن تتمكّن الآلات في النهاية من منافسة البشر في جميع مجالات الذكاء الخالص». هذا التصور، الذي عرضه في مقالته الشهيرة عن فلسفة الذكاء الاصطناعي، فتح الطريق أمام أجيال من الدراسات اللاحقة.
وقد شكّلت هذه المقالة لبنة تأسيسية للفكر المتعلق بالذكاء الاصطناعي، ويمكن تلخيص أهم إسهاماتها فيما يلي:
1- طرح لعبة "المضاهاة" التي أظهرت أن الحواسيب قادرة على تقليد التفكير عبر وظائفها، وفنّد الاعتراضات اللاهوتية والرياضية والعصبية والحاسوبية التي أنكرت ذلك.
2- أكد أن التعلم الآلي يمكن أن يستند إلى الثواب والعقاب، وأن الآلة تستطيع اكتساب الحكم الفعّال حتى عبر إشارات غير عاطفية.
3- بيّن أن السلوك غير المتوقع في الأنظمة الذكية ليس عشوائيًا ولا عديم المعنى، بل يمثل انحرافًا محدودًا عن الحساب المتسق.
4- قدّم نموذج "آلة التعلّم"، الذي أصبح مصدر إلهام لتقنيات التعلّم الآلي الحديثة، بما في ذلك فكرة "الانحراف العرضي" في السلوك كوسيلة لتدريب الخوارزميات.(108)
وبعد عقود من أفكار تورينج، حاول لينور بلوم ومانويل بلوم تطوير مفهوم "آلة تورينج الواعية" . وقد اعتمد هذا النموذج على صيغ رياضية ترتكز إلى نظرية "المساحة العالمية" في علم الإدراك، سعيًا لمحاكاة الوعي ذاته أو إعادة إنتاج صورة منه بصورة حسابية. ورغم أن هذه المحاولة لا تزال في نطاق النظرية، إلا أنها تمثل امتدادًا مباشرًا للطريق الذي شقّه تورينج نحو الربط بين الحساب والوعي.(109)
ورغم أن رؤية تورينج لم تتحقق بالكامل حتى الآن، فقد ترك إرثًا فلسفيًا مفتوحًا في صورة سؤال محوري: «من أين يكون أفضل موضع لبدء البحث؟ ... الشطرنج أم الأجهزة؟» وهو سؤال لم يفقد راهنيته، بل دشّن شدّ الحبل المستمر بين من يرون الذكاء الاصطناعي لعبة خوارزميات مجردة، ومن يعتبرونه تجربة مادية وتجسيدًا ملموسًا. وهكذا يستمر أثر تورينج في تأطير النقاش حول الوعي والإدراك الاصطناعي حتى يومنا هذا.(110)
ورغم ما فتحه تورينج ومن بعده بلوم وبلوم من آفاق نظرية لتصور "آلة واعية"، فإن هذه الطموحات تصطدم بحدود علمية وعملية صارمة. فمن جهة، ثمة قيود تجريبية ونظرية تجعل الحديث عن وعي الآلة أمرًا إشكاليًا، أقرب إلى الاحتمال المستقبلي منه إلى الواقع القائم.
3- القيود التجريبية والنظرية على وعي الآلة
منذ أن تعهّد هلمهولتز وديبوا- رايموند وحتى فرويد بأنّه "لا توجد قوى أخرى غير القوى الفيزيائية والكيميائية العادية فاعلة داخل الكائن الحي"، هناك إجماع علمي واسع على أن الدماغ هو "نظام فيزيائي- كيميائي"، وأن "الوعي" هو إحدى أكثر خصائصه تطورًا، حتى وإن لم يوجد توافق حول تفسير الكيفية الدقيقة لذلك. وبالتالي يمكن القول إنّه من الناحية النظرية قد يصبح ممكنًا، عاجلًا أم آجلًا، محاكاة وظائف الدماغ صناعيًا، بما في ذلك الوعي، عبر وسائل فيزيائية- كيميائية. ومع ذلك، فإن الوضع يُشبه حالة "الحياة في أنبوب الاختبار" مع أبسط الكائنات الحية: فجميع مكوّناتها الجزيئية معروفة، لكن لم يتمكّن أحد حتى الآن من إعادة تكوين كائن حي من مكوّناته المنفصلة. فالمسألة ليست نظرية فحسب، بل عملية أيضًا، وهذا ما يجعلها أكثر أهمية.(111)
تشير الأبحاث في علوم الأعصاب والذكاء الاصطناعي إلى أن الوعي الإنساني يتدرج في مستويات: من المعالجة اللاواعية إلى المستويات الأعلى المرتبطة بالوعي التأملي . غير أن أنظمة الذكاء الاصطناعي الحالية لا تتجاوز المستوى الأدنى ، إذ تفتقر إلى خصائص مثل الوعي بالذات والقدرة على المراقبة الداخلية.(112) ومن ناحية أخرى، يرى بعض الباحثين أن الحديث عن "وعي الآلة" أقرب إلى العلم الزائف، لأنه يفتقر إلى إمكانية التحقق التجريبي ويعتمد على افتراضات فلسفية حول "المسألة الصعبة" للوعي.(113)
تاريخيًا، منذ البدايات الأولى للذكاء الاصطناعي، أشار بيتس وماكولوتش إلى شبكات من الخلايا العصبية الاصطناعية المثالية. وقد تأثّر برنامج الترابط العصبي لاحقًا بشكل سلبي بالنقد الجوهري لمارفن مينسكي، لكنه عاد تدريجيًا إلى أن شهد انفجارًا في الاستخدام والشعبية مؤخرًا مع الشبكات العصبية الاصطناعية. وعلى مدى عقود من أبحاث الحاسوب، تطورت هذه الشبكات من البُنى البسيطة إلى المعقدة، ومن طبقة واحدة من الخلايا العصبية الاصطناعية إلى طبقات متعددة—من "المُدرِك" وصولًا إلى التعلم العميق والمليارات من المعاملات في نماذج اللغة الكبيرة.(114)
ولم يكن النهج الرمزي ("الذكاء الاصطناعي التقليدي الجيد" ، بما في ذلك "منظّر المنطق" الذي أنشأه نيويل وسايمون)، والذي كان سائدًا في بداية أبحاث الذكاء الاصطناعي ويهدف إلى إعادة إنتاج الجوانب المنطقية للذكاء على مستوى وظيفي عالٍ مع إهمال الآليات الدماغية الأساسية، وحده غير كافٍ، بل في النهاية أيضًا لم يتمكن برنامج الشبكات العصبية الاصطناعية من أن يفسر بالكامل تعقيد بنية الدماغ ، إن أُشير إليها أصلًا.
بعد استعراض هذه القيود النظرية والتجريبية التي تكبح الطموح في إعادة إنتاج الوعي حسابيًا، برز اتجاه آخر يسعى إلى تجاوز الجدل العقيم حول إمكان الوعي الآلي من عدمه، وذلك عبر اقتراح معايير كونية يمكن أن تشكّل أرضية مشتركة بين الفلاسفة والعلماء والمهندسين لتحديد متى يمكن وصف الآلة بأنها واعية
4- نحو معايير كونية للوعي الاصطناعي
الوعي الآلي، الذي يُشار إليه في الأدبيات التقنية أيضًا باسم الوعي الاصطناعي، كان موضع نقاش فلسفي وتقني منذ أن باتت الآلات قادرة على إظهار سلوك ذكي اعتمادًا على مجموعة من التعليمات المسبقة. وقد نُشرت في السنوات الأخيرة وفرة من الادعاءات التقنية والهياكل المعمارية حول الكيفية التي يمكن بها لآلة أن تُنشئ وعيًا، من قِبل مجتمع متعدد التخصصات. غير أنّ المجتمعات البحثية المختلفة لا تتفق حتى على تعريفٍ لماهية الوعي، إذ يوجد طيف واسع من النظريات حول طبيعته
ولتجنب هذا الالتباس، نركز على دراسة الوعي الظواهري، أي إدراك الكيفيات المحسوسة من قبل الذات أو الملاحظ أو الحياة. لكن مع ذلك، تعتمد النظريات والأطر الحالية للوعي الآلي على فرضيات فلسفية مثل "قابلية التحقق المتعدد"، وهي فرضية لا يمكن اختبارها تجريبيًا، مما يجعل هذه الأطر التقنية قائمة على افتراضات يصعب إثباتها علميًا.(115)
في محاولة لتجاوز هذه الإشكاليات، قدّم أنور وباديا (2024) خمسة معايير يُقترح اعتبارها أسسًا كونية لتحديد ما إذا كان من الممكن وصف الآلة بأنها واعية، وذلك بغرض توفير أرضية مشتركة بين الفلاسفة وعلماء الأعصاب ومهندسي الذكاء الاصطناعي.(116)
ويبقى السؤال حول قدرة الآلة على "المعرفة" أو الوعي سؤالًا مفتوحًا، تتجاذبه اتجاهات مختلفة:
1- سيرل: الآلة لا تفهم بل تكتفي بالتلاعب بالرموز، والمعرفة تظل حكرًا على الكائن الواعي.
2- بلوم وبلوم: يمكن للوعي أن يُصاغ في نماذج حسابية مثل "آلة تورنغ الواعية".
3- البحوث العصبية: الذكاء الاصطناعي الحالي محدود في مستوى معالجة لاواعية ولا يمتلك خصائص الوعي التأملي.
بعد استعراض الحدود النظرية والتجريبية التي تجعل إمكان وعي الآلة أمرًا ملتبسًا، يتضح أن القضية لا تقف عند حدود الفيزياء أو الأعصاب أو النماذج الحسابية، بل تتجاوزها إلى أسئلة أكثر حساسية تتعلق بالأخلاق والفلسفة العملية. فحتى لو أمكن للآلة أن تُحاكي بعض أنماط الوعي أو أنماط التفكير البشري، يبقى السؤال الأعمق: كيف نتعامل مع كيان قد يمتلك قدرات معرفية أو شبه- معرفية، دون أن يكون له بالضرورة إطار قيمي أو وازع أخلاقي؟ هنا ينتقل البحث من المستوى التجريبي إلى المستوى المعياري، حيث تصبح "الأخلاقيات" هي الميدان الحاسم لفهم حدود ومشروعية الذكاء الاصطناعي.
المحور الثالث: الأسس الأخلاقية والفلسفة العملية
لقد حظيت أخلاقيات الذكاء الاصطناعي والروبوتات بتغطية صحفية واسعة في السنوات الأخيرة، وهو ما يدعم هذا النوع من العمل، لكنه قد يقوّضه أيضًا: إذ تتحدث الصحافة غالبًا وكأن القضايا المطروحة لا تخص سوى التقنيات المستقبلية، وكأننا نعلم سلفًا ما هو الأكثر أخلاقية وكيف يمكن تحقيقه. ومن ثمّ تركز التغطية الإعلامية على المخاطر والأمن، وعلى التنبؤ بالتأثيرات (مثلًا على سوق العمل). والنتيجة أن النقاش ينحصر في مشكلات تقنية بحتة تتمحور حول كيفية تحقيق نتيجة مرغوبة. كما يمكن ملاحظة نتيجة أخرى في النقاشات الجارية ضمن السياسات والصناعة، إذ تتركز على الصورة العامة والعلاقات العامة – حيث يصبح وصف "أخلاقي" مجرد شعار جديد شبيه بشعار "صديق للبيئة"، وربما يُستعمل كنوع من "غسيل الأخلاق". ولكي تُعَدّ المشكلة مشكلة حقيقية في أخلاقيات الذكاء الاصطناعي، يجب ألّا يكون الصواب فيها واضحًا أو متفقًا عليه مسبقًا. وبهذا المعنى، فإن فقدان الوظائف، أو السرقة، أو القتل عبر الذكاء الاصطناعي ليست في ذاتها مشكلة أخلاقية، لكن السؤال عمّا إذا كانت هذه الأفعال جائزة في ظروف معينة هو المشكلة الأخلاقية الحقيقية.(117)
مع التقدّم التكنولوجي الذي يقودنا نحو مستقبل مكتظ بالروبوتات المستقلة، يزداد التشابك بين سؤال (الوعي) وسؤال (الأخلاق). فإذا كان من الصعب تحديد ما إذا كانت الآلة قادرة على امتلاك حالات وعي حقيقية، فإن الأصعب هو تقرير ما إذا كان يمكن تحميلها مسؤولية أخلاقية عن أفعالها، خصوصًا إذا تعارضت مع القيم الإنسانية. ومن هنا تنبثق إشكالية مزدوجة: من جهة، كيف يمكن لكيان مادي أن تكون له حالات وعي؟ ومن جهة أخرى، كيف نضمن أن هذا الكيان – سواء وُصف بالواعي أو لا – يتصرّف وفق معايير أخلاقية لا تضر بالبشر أو بغيره من الآلات؟
في هذا السياق، تعيد مقالة أيديـدي وجوزيلدره بعنوان «الوعي، القصدية، والذكاء: قضايا تأسيسية في الذكاء الاصطناعي» التأكيد على صعوبة هذا السؤال، مشيرةً إلى طبيعته المراوغة. فقد عملا أولًا على توضيح سبب كون الوعي يطرح مشكلات فلسفية عميقة، ثم اقترحا بناء أنظمة تكون بنياتها الحسيّة والمعرفية – ولا سيما الاستبطانية – موازيةً للنموذج الذي يطرحانه لتفسير الوعي الظواهري.
أما مقالة «الاستدلال السياقي » التي ألّفها بينيريتّي وآخرون، فهي تنقل النقاش من مستوى الوعي الفردي إلى مستوى السلوك في السياق، إذ تشير إلى أنّ كل فعل أو قول إنساني يتضمن افتراضات خلفية لا يمكن فهمها إلا عبر سياق محدّد. ويطرح المؤلفون أن الاستدلال السياقي يتحدد بثلاثة أبعاد: الجزء المحدود من العالم الذي يغطيه التمثيل (، ومستوى التفصيل الذي يوصف به، والمنظور المعرفي الذي يُقدَّم من خلاله. وهكذا يصبح الاستدلال السياقي في جوهره محاولة لفهم كيفية ترابط السياقات المختلفة بعضها ببعض، وهو ما يضيف بعدًا جديدًا لفهم أخلاقيات الذكاء الاصطناعي وسلوكياته.(118)
1- إشكالية حرية الإرادة والمسؤولية في الذكاء الاصطناعي.
تمثل مسألة حرية الإرادة وما يرتبط بها من مسؤولية أخلاقية وقانونية أحد أبرز موضوعات النقاش الفلسفي المعاصر، خصوصًا في سياق الذكاء الاصطناعي (AI). تتساءل الأبحاث عمّا إذا كانت الأنظمة الذكية قادرة على اتخاذ قرارات "حرة" ضمن معنى فلسفي، وإذا كانت، فهل يمكن نسبتها إليها مسؤولية كاملة مثل البشر؟.(119)
وانطلاقًا من هذا التساؤل الفلسفي، تنتقل الإشكالية إلى بُعدها العملي، حيث إن بروز الكيانات الذكية اصطناعيًا وانتشارها (ويُشار إليها لاحقًا أيضًا بالوكلاء الاصطناعيين أو الذكاء الاصطناعي) يثير أسئلة حول المسؤولية القانونية والالتزام بالمساءلة. ويرجع ذلك إلى أن بعض الكيانات الذكية اصطناعيًا لا تحتاج إلى تدخل بشري للقيام ببعض الأفعال، كما أن أفعالها لا تتبع بالضرورة أنماطًا مبرمجة مسبقًا. وبالنظر إلى التطورات في مجال التعلّم الآلي، يبدو أن بعض الوكلاء الاصطناعيين يتصرفون بشكل مستقل، وأن المزيد منهم سيتصرف باستقلالية متزايدة في المستقبل. وهذا يؤدي إلى وجود فجوة في المساءلة القانونية، حيث تزداد احتمالية وقوع حالات يحدث فيها ضرر لا يكون أحد مسؤولًا عنه وفقًا للقانون الإيجابي الساري، مع أن هذا الضرر لا ينبغي – على ما يبدو – أن يتحمله الكيان المتضرر وحده.(120)
ومن هنا برزت الحاجة إلى نقاش واسع حول كيفية سد هذه الفجوة في المساءلة، سواء على المستوى السياسي أو الأكاديمي. ويوجد ثلاث تصورات خاطئة (مترابطة) وهى الاعتقاد بأن الكيانات الذكية اصطناعيًا:
أ- لا يمكن تحميلها مسؤولية قانونية عن أفعالها، لأنها لا تمتلك الخصائص اللازمة لتكون "وكلاء حقيقيين"، وبالتالي فهي لا تستطيع "التصرّف حقًا".
ب- لا ينبغي تحميلها مسؤولية قانونية عن أفعالها، لأنها لا تمتلك الخصائص اللازمة لتكون "وكلاء حقيقيين"، وبالتالي فهي لا تستطيع "التصرّف حقًا".
ج- لا ينبغي تحميلها مسؤولية قانونية عن أفعالها، لأن القيام بذلك سيسمح لوكلاء آخرين (بشريين أو مؤسسيين) بالاختباء وراء الذكاء الاصطناعي والتهرّب من المسؤولية، في حين أنهم هم الذين يجب أن يتحملوها.(121)
2- حرية الإرادة في عصر الذكاء الاصطناعي والشخصية القانونية
وإذا كان النقاش السابق قد ركّز على فجوة المساءلة القانونية، فإن التطور المنطقي له يقود إلى التساؤل عن الوضع القانوني للذكاء الاصطناعي نفسه. لا يمكن تحميل الذكاء الاصطناعي مسؤولية قانونية لأنه ليس وكيلاً (فاعلًا). فعلى سبيل المثال، يشير كويكلبرج (Coeckelbergh) إلى أن: «المشكلة التي تبرز بشكل خاص في حالة الذكاء الاصطناعي هي مسألة إسناد المسؤولية. وبما أن التقنيات لا يمكن أن تكون فاعلين أخلاقيين مسؤولين، ومن ثم فهي "لا- مسؤولة"، فإن السبيل الوحيد لضمان الفعل المسؤول هو جعل البشر مسؤولين.» ويكتب داهيات (Dahiyat) قائلاً: «سأجادل بأن القانون (الإيجابي) باعتباره بناءً اجتماعيًا هو مستقل (مفاهيميًا) عن أي "فاعلية حقيقية" مُتصوّرة، أي أن القانون يمكنه تقنيًا أن يعتبر الكيانات وكلاء قانونيين حتى وإن لم يكونوا "وكلاء حقيقيين". غير أن مجرد الإمكانية التقنية لا تعني أن القانون يجب أن يفعل ذلك. وهذا ما سأتناوله في القسم...». ويضيف بعض المعلّقين بأن: «الوكلاء البرمجيين ليسوا سوى معلومات مبرمجة، وأننا سنرتكب أخطاء مفهومية جسيمة إذا نسبنا إليهم مسؤولية قانونية أو أخلاقية، أو إذا افترضنا ببساطة أنهم يمتلكون ما نعتبره موجودًا عندما نحمّل البشر مسؤولية أفعالهم. ذلك لأن الوكلاء البرمجيين، بخلاف البشر الذين يتمتعون بالحسّ الذاتي والتحديد الذاتي والبعد الأخلاقي، يفتقرون إلى عدد من الشروط التي ينبغي توافرها لكي تُسند إليهم المسؤولية.»(122)
ويمتد النقاش هنا إلى أبعاد أعمق، حيث يناقش(تشو زن) Zhu Zhen التحديات التي تفرضها التقنيات الحديثة (من الجينات إلى الذكاء الاصطناعي) على مفهومي الإرادة الحرة وتحديد المسؤولية القانونية. ويشير إلى أن الذكاء الاصطناعي يمكن أن يُمثل إشكالاً مباشرًا يتطلب إعادة النظر في مفهوم "الغفران" (في القانون، كما أن تطوير ذكاء اصطناعي عام (AGI) قادر على اتخاذ قرارات مستقلة قد يؤدي إلى مقام قانوني جديد بوصفه "فردًا قانونيًا".(123)
ويؤكد هذا التوسع في النقاش ما أشار إليه بروزِك (Brożek) وياكوبييتس (Jakubiec) من وجود طيفٍ من المواقف الممكنة بخصوص المسؤولية القانونية للكيانات الذكية اصطناعيًا. وتقع على طرفي هذا الطيف رؤيتان متقابلتان هما: التقييدية (restrictivism) والتساهلية أو التسامحية (permissivism). فالتقييدية: «تنفي إمكانية تحميل الآلات المستقلة مسؤولية قانونية استنادًا إلى أسس ميتافيزيقية بحتة» بينما التساهلية: «لا تفرض أي قيود على البُنى القانونية الممكنة». تذهب التقييدية إلى نفي إمكانية تحميل الكيانات الذكية اصطناعيًا مسؤولية قانونية، انطلاقًا من أنها تفتقر إلى الخصائص الجوهرية اللازمة للمسؤولية القانونية (والأخلاقية). ومن بين المرشحين لتمثيل هذه الخصائص الأساسية: الوعي، القصدية، القدرة على الفعل القصدي، الإرادة الحرة (بالمعنى التحرّري)، الاستقلالية، القدرة على المداولة، والتوافق بين أسباب الفعل (بالمعنى التبريري لا بمعنى الآليات أو العلل) وبين الأفعال ذاتها، وغير ذلك. وبلغة قانونية أدق، لا يمكن تحميل الذكاء الاصطناعي المسؤولية لأنه يفتقر إلى القدرة على الفعل والقدرة على أن يكون مذنبًا أو جديرًا باللوم.(124)
3- القدرات المعرفية للإرادة الحرة التي لا يمكن تكرارها في الذكاء الاصطناعي
وبعد استعراض الجدل القانوني والفلسفي حول المسؤولية، يصبح من الضروري العودة إلى جوهر المسألة: الإرادة الحرة ذاتها. فعلى مدى عقود عدّة، أسهم الذكاء الاصطناعي – سواء فُهم كحقل علمي أو كسلسلة من منتجات العلوم الروبوتية المتزايدة تطورًا – في إعادة التفكير في بعض المفاهيم المميزة للأنثروبولوجيا، بما في ذلك مشكلة الإرادة الحرة، وهي القدرة المعرفية التي شُكّك فيها بجدية من قِبل علم وظائف الأعصاب خلال الخمسين عامًا الماضية، لكنها تعود اليوم لتحتل مركز الصدارة عند بناء الخوارزميات القادرة على الفعل.(125)
إن الإرادة الحرة تمثل قدرة معرفية خاصة بالبشر لا يمكن تقليدها في أنظمة الذكاء الاصطناعي. مركزيًا، هناك شروط ضرورية لمقارنة البشر والأنظمة الخوارزمية من منظور فلسفي منهجي.(126)
4- الإرادة الحرة الوظيفية في الوكلاء المولّدين
وبينما يظل النقاش الفلسفي يركز على تميّز الإرادة الحرة البشرية عن قدرات الأنظمة الاصطناعية، فإن بعض الاتجاهات النظرية الحديثة تقترح إعادة تعريف المفهوم بصورة وظيفية، تسمح بتطبيقه على الذكاء الاصطناعي. فإذا كنا على استعداد لأن نقول إنّ البشر — كنظم تركيبية تتألف من وحدات بنائية تبدو بلا عقل — يمتلكون إرادة حرة، فعلينا أيضًا أن نقبل أنّ البنية الميكانيكية الأساسية لنظام الذكاء الاصطناعي بحدّ ذاتها لا تستبعد امتلاك مثل هذا النظام للإرادة الحرة. فالنظام الاصطناعي يمتلك إرادةً حرة إذا وفقط إذا كان يمتلك وكالة قصدية، وإمكانيات بديلة للاختيار، وسيطرة سببية على أفعاله. لذا يجب استخدام نفس المعايير لتحديد وجود الإرادة الحرة في الذكاء الاصطناعي التي نستخدمها أيضًا في حالة البشر أو الحيوانات البيولوجية. كيف نتحقق من أن نظامًا معينًا يستوفي تلك الشروط؟ هنا تكون منهجية دينت (Dennett) في عمله حول «الموقف القصدّي» مفيدة، فهو يقترح أنّه لتحديد ما إذا كان نظامٌ ما وكيلاً قصدياً، فلا ينبغي أن ننشغل كثيرًا بالأسئلة الميتافيزيقية العميقة، بل نسأل ما إذا كان بالإمكان تفسير النظام تفسيرًا جيدًا إذا نظرنا إليه كوَكِيلٍ قصديّ. بالنسبة لدينت، «أَيُّ شيء يمكن التنبؤ به بشكل مفيد وكثيف من الموقف القصدّي فهو، بحكم التعريف، نظامٌ قصدي». وبناءً على هذا القول، فإنَّ أن تكون وكيلاً قصدياً يعني ببساطة أن تكون نظامًا يمكن تفسيره جيدًا عند اتخاذ موقف قصدّي تجاهه. وبذات المنوال، يمكن أن نقترح أنّ أيّ شيء يُفسَّر جيدًا إذا اعتبرناه نظامًا ذا وكالة قصدية، وإمكانيات بديلة، وسيطرة سببية على الأفعال الناتجة، يجبُ اعتباره ذو إرادة حرة.(127)
وتماشيًا مع هذا المنظور الوظيفي، فإنه لتحديد ما إذا كان نظام ما يمتلك إرادة حرة، ينبغي أن نسأل عمّا إذا كانت لدينا أسباب تفسيرية وجيهة للنظر إلى هذا النظام بوصفه كيانًا يستوفي الشروط الثلاثة: (1) فاعلًا قصديًا، (2) يمتلك بدائل ممكنة للاختيار بينها، و(3) يملك سيطرة على أفعاله.(128)
وفي دراسة نشرت في "الذكاء الاصطناعي والأخلاقيات" عام 2025 بعنوان«الذكاء الاصطناعي والإرادة الحرة: الوكلاء المولَّدون باستخدام النماذج اللغوية الضخمة يمتلكون إرادة حرة وظيفية» ، يرى الباحث أن الوكلاء الاصطناعيين المبنيين على نماذج لغوية ضخمة (LLMs)، مدعومين بوحدات تخطيط وتنفيذ، يظهرون سلوكًا وكلّيًا وصفه بأنه يعكس إرادة حرة وظيفية . هذه "الإرادة" تستند إلى ثلاثة شروط فلسفية: الوكالة ذات النية، وجود خيارات حقيقية، والتحكم في الأفعال، مستندًا إلى مقاربات دانيل دينيت (Dennett) وكريستيان ليست List .(129)
وإذا كان من الممكن النظر إلى بعض الوكلاء الاصطناعيين على أنهم يمتلكون إرادة حرة وظيفية، فإن السؤال التالي يفرض نفسه: ما القيمة الأخلاقية والقانونية المترتبة على هذا الاعتراف؟ هنا يطرح النقاش مسألة المساءلة بوصفها الامتداد العملي الأهم لهذا الجدل الفلسفي.
5- إشكالية المساءلة الأخلاقية وقيمتها في الذكاء الاصطناعي
تطرح الدراسة علميًا أن اعترافنا بأن هذه الأنظمة تمتلك إرادة وظيفية (حتى وإن لم تكن إيديولوجية) يُقربها من مسؤولية أخلاقية قانونية. ويشير الباحث الفنلندي فرانك مارتيلّا Frank Martela إلى أن امتلاك هذه الشروط يجعل من الضروري إعادة التفكير في حرية وكفاءة الآلة.(130)
تجد أحدث دراسة لفرانك مارتيلّا أن الذكاء الاصطناعي التوليدي يستوفي الشروط الفلسفية الثلاثة للإرادة الحرة — وهي: القدرة على امتلاك وكالة موجَّهة نحو غايات، واتخاذ خيارات حقيقية، وامتلاك التحكم في أفعاله. وبالاستناد إلى مفهوم الإرادة الحرة الوظيفية كما فُسِّر في نظريات الفلاسفة دانيال دينيت وكريستيان ليست، درست هذه الدراسة وكيليْن توليدييْن مدعومين بنماذج لغوية كبيرة (LLMs): الوكيل Voyager في لعبة Minecraft، والطائرات المسيَّرة القاتلة الافتراضية المسماة Spitenik، والتي تمتلك الوظائف الإدراكية للطائرات غير المأهولة المعاصرة. يقول مارتيلّا: «يبدو أن كليهما يستوفي الشروط الثلاثة للإرادة الحرة — ومع الجيل الأحدث من وكلاء الذكاء الاصطناعي علينا أن نفترض أنهم يمتلكون إرادةً حرة إذا أردنا أن نفهم كيفية عملهم ونتمكن من التنبؤ بسلوكهم». ويضيف أن هذه الدراسات التطبيقية قابلة للتعميم على الوكلاء التوليديين المتاحين حاليًا والمعتمدين على النماذج اللغوية الكبيرة.(131)
يتضح من خلال هذه المراجعات أن العلاقة بين حرية الإرادة والمسؤولية في الذكاء الاصطناعي تنبثق عبر محاور فلسفية وقانونية كثيرة:
1- يجب إعادة تعريف الحرية القانونية في ضوء قدرات الوكلاء الاصطناعيين المتقدمة.
2- بعض الحجج ترى أن الإرادة الحرة لدى البشر فريدة وغير قابلة للاستنساخ.
3- آخرون يؤسسون لمفهوم "الإرادة الحرة الوظيفية" التي يمكن تعيينها لوكلاء اصطناعيين بالنظر إلى سلوكهم العملي والوكالة.
4- يبقى تحديد المساءلة الأخلاقية / القانونية مرهونًا بتوسيع الفهم القانوني والأنثروبولوجي للقرار والوعي.
6- العدالة والتمييز: قضايا الانحياز في الخوارزميات
بعد أن رأينا كيف يثير النقاش حول الإرادة الحرة في الذكاء الاصطناعي تساؤلات حول المسؤولية الأخلاقية والقانونية، يبرز بُعد آخر لا يقل خطورة، وهو البُعد المرتبط بالعدالة والتمييز. فإذا كان الاعتراف بالوكالة والاختيار الحر يفتح المجال للمساءلة، فإن تطبيقات الذكاء الاصطناعي في القطاعات الحيوية تكشف عن إشكاليات أعمق تتعلق بإنصاف الأفراد والجماعات، وتكشف عن التحيّزات المتأصلة في البيانات والخوارزميات.
أصبحت قضايا العدالة والتمييز في الخوارزميات ذات أهمية متزايدة، مع توسع استخدام الذكاء الاصطناعي في قطاعات حرجة كالتوظيف، العدالة الجنائية، الرعاية الصحية، والائتمان المالي. إن الانحياز القائم على بيانات غير ممثلة أو نماذج غير عادلة يمكن أن يعزز التفاوتات الاجتماعية القائمة، مما يتطلب البحث في طرق التحقق والتخفيف من هذه التأثيرات.(132)
أ- مصادر الانحياز وأنواعه
في الآونة الأخيرة، أصبحت هناك لوائح وتوصيات مختلفة بشأن استخدام التكنولوجيا القائمة على الذكاء الاصطناعي، وخاصة في المجال القضائي. ومن أبرز المخاوف المطروحة مسألة التحيّز في هذه الأنظمة. ففي عام 2016، نشرت منصة "من أجل العامة" أو "لصالح الجمهور" تقريرًا لاذعًا حول استخدام تقنيات الذكاء الاصطناعي في اتخاذ القرارات المتعلقة بحقوق الأفراد والتزاماتهم، كاشفةً أن هذه الأنظمة تميل إلى إعادة إنتاج التحيّزات القائمة وتعزيزها. وتكمن المشكلة في الحاجة الكبيرة إلى بيانات تدريب ضمن تقنيات التعلّم الآلي، وهي غالبًا ما تستند إلى بيانات سابقة مثل الأحكام القضائية. على سبيل المثال، تبيّن أن نظام الكفالة في الولايات المتحدة متحيّز بشكل مقلق ضد الأمريكيين من أصول إفريقية. وحتى الجهود المبذولة لتجنّب الإشارة إلى السمات المحمية لم تكن كافية، إذ تبيّن أن ما يُسمّى بـ "العدالة عبر التجاهل" قد أُضعف بفعل الخصائص البديلة. ومن ثمّ، فإن معالجة التحيّز في أنظمة الذكاء الاصطناعي تمثّل قضية بالغة الأهمية مع تزايد انخراط الوسائل الآلية في البيئات القضائية.(133)
تنشأ الانحيازات في أنظمة الذكاء الاصطناعي من عدة مصادر رئيسية:
1- انحياز البيانات: البيانات المدرّبة قد تعكس تحيّزات مجتمعية، مثل التحيّز العرقي أو الطبقي.(134)
2- الانحياز الفني: ناتج عن خوارزميات التصميم أو إعداد النماذج بطريقة غير مناسبة.
3- الانحياز الناشئ: يتطوّر أثناء استخدام الأنظمة ضمن سياقات جديدة أو غير مصمّمة لها.(135)
ب- التمييز الخوارزمي في القرارات الجنائية
لقد اتسم محيط المحاكم ومجال العدالة دائمًا بنزعة محافظة نسبيًا، كما يتضح من الرمزية القضائية التي تحيل إلى مُثلٍ تعود إلى اليونان القديمة. وينعكس ذلك أيضًا في موقفه من تبنّي التقنيات الحديثة، وهو ما تسارع إيقاعه – بلا شك – بفعل جائحة كوفيد- 19. لقد تجاوز اعتماد التقنيات الجديدة تدريجيًا حدود “الافتراضية البسيطة” للإجراءات عبر برامج عقد المؤتمرات المرئية، إذ نشهد اليوم إدماجًا متزايدًا لأنظمة مختلفة قائمة على الذكاء الاصطناعي. وإلى جانب الاستخدام العام للتقنيات، يتخذ الذكاء الاصطناعي أدوارًا أكثر جوهرية، منتقلاً من المهام الإدارية البسيطة نحو أنظمة اتخاذ القرار، وإن كان ذلك – حتى الآن – في صورته “الأكثر أمانًا”، أي بوصفه نظامًا مساعدًا أو داعمًا في عملية صنع القرار.
وعلاوةً على القيود التقنية، فإن اقتصار تبنّي هذه الأنظمة – حتى اللحظة – على الدور المساعد مردّه أيضًا إلى أسباب أخرى متعدّدة: اجتماعية وتقنية ومسائل تتعلق بالمسؤولية. فمنذ مطلع الألفية، توقّع تاتا أن موقع الذكاء الاصطناعي في القضاء كان يُنظر إليه دومًا من زاوية العملية الإدراكية لا من زاوية اجتماعية، وهو ما يتجاهل الدور الذي يضطلع به القضاء داخل المجتمع. فدور القضاء يُنظر إليه غالبًا باعتباره مؤسسة بشرية تؤدي جهدًا إنسانيًا في جوهره هو تحقيق العدالة. لذلك فإن الإدماج التدريجي لمثل هذه التقنيات يمنحنا فرصةً لسدّ فجوة الثقة المتصوَّرة عند إسناد عملية إنسانية أصيلة إلى فاعلين غير بشريين.(136)
سبّب استخدام أدوات تنبؤية مثل COMPAS "التنميط الإداري للمخالفين الإصلاحي من أجل العقوبات البديلة". جدلًا واسعًا بعد أن أظهر تحيّزًا واضحًا ضد المدعى عليهم السود مقارنةً بالبيض، مما أثار دعوة لتطبيق مفاهيم العدالة الآلية المتكافئة.(137)
استنادًا إلى هذا التحليل، الذي سيعتمد على عرض التقنيات ذات الصلة وكذلك على الأطر القائمة لمعالجة اتخاذ القرار المتحيّز، يجب فهم القضايا التالية:
1- هل يُشكّل التحيّز الخوارزمي مشكلة بالنسبة للتقنيات القضائية القائمة على الذكاء الاصطناعي سواء في صورتها المساعدة أو الجوهرية؟
2- إذا كان الأمر كذلك، فما السُبل الممكنة للعلاج؟
3- ما أوجه الاختلاف بين متطلّبات اتخاذ القرار غير المتحيّز عند البشر وعند الآلات؟(138)
تُعَدّ مسألة التحيّز مجالًا يحظى باهتمام واسع من كلٍّ من القانون وعلوم الحاسوب، حتى أنها في ميدان الذكاء الاصطناعي تكاد تُشكّل فرعًا فرعيًا قائمًا بذاته للدراسة. وبناءً على ذلك، لا تستطيع هذه المقالة أن تقدّم عرضًا شاملًا للجانب التقني من هذه المشكلة، لكنها ستصفه بالقدر اللازم لفهم السياق. أما من الناحية القانونية، فإن مسألة التحيّز لا تندرج فقط ضمن نطاق الحقوق التي يشملها الحق في محاكمة عادلة، بل إن هناك قدرًا كبيرًا من السوابق القضائية والأعمال النظرية التي تشير إلى أهمية هذا الحق.(139)
وبالاستناد إلى المعارف المرتبطة بالتحيّز في المجالين ذوي الصلة باتخاذ القرار الخوارزمي – علوم الحاسوب والقانون – يمكننا الخروج بملاحظتين أساسيتين:
أولًا، وبالاستعانة بمجال علوم الحاسوب، لاحظنا أن التخفيف من التحيّز يتطلّب تحديده ورصده، وهو ما يمكن القيام به عبر إجراء اختبارات تتابع مخرجات عملية اتخاذ القرار للتحقق من وجود أنماط سلبية.
ثانيًا، ومن المنظور القانوني، تبين أن هناك إطارًا وضعته المحكمة الأوروبية لحقوق الإنسان للكشف عن اتخاذ القرار المتحيّز. ويتكوّن هذا الإطار من جزأين: الاختبار الذاتي والاختبار الموضوعي.(140)
ج- إعادة تعريف العدالة في الرعاية الصحية القائمة على الذكاء الاصطناعي
إن رقمنة السجلات الصحية وبيانات المطالبات في أوائل العقد الأول من الألفية الثانية زادت بشكل كبير من إمكانية الوصول إلى بيانات الرعاية الصحية واستخدامها، مما دفع للاستثمار في أدوات التنبؤ في صناعة الرعاية الصحية. وتستخدم خوارزميات الذكاء الاصطناعي (AI)، التي تشمل فروع التعلم الآلي والتعلم العميق، مجموعات كبيرة من البيانات لإجراء التنبؤات، وقد تم تطويرها للشركات التأمينية والمستشفيات ومجموعات الأطباء لمساعدتهم في اتخاذ القرارات المتعلقة برعاية المرضى، وتوظيف الموارد البشرية، وتشخيص الحالات، وأكثر من ذلك.
لقد وافقت إدارة الغذاء والدواء الأمريكية (FDA) على أكثر من 500 جهاز مدعوم بالذكاء الاصطناعي حتى عام 2023، كما تم تطوير نماذج الذكاء الاصطناعي للتنبؤ بالالتزام بالعلاج، وظهور الأمراض، والاستشفاء لمجموعات التأمين وإدارة صحة السكان.(141)
في خضم تحليل نماذج تعلم آلي للرعاية الصحية، لاحظ الباحثون أن استخدام بعض مؤشرات مثل الإنفاق الطبي السابق كمعيار للوصول إلى الخدمات أدى إلى تهميش مرضى سود، رغم حاجتهم الفعلية للرعاية، مما يتطلب إعادة بناء مفهوم العدالة ليشمل البُعد التوزيعي والاجتماعي للعلاقات.(142)
د- مقاربة شاملة للعدالة والحد من التحيّز
يمتلك الذكاء الاصطناعي مجموعة واسعة من التطبيقات في مجال الرعاية الصحية، بما في ذلك تحليل الصور الطبية، والمساعدين الافتراضيين، ودعم اتخاذ القرار السريري، والتحليلات التنبؤية، والمراقبة عن بُعد للمرضى، والتواصل الصحي. وحتى تطبيقات الذكاء الاصطناعي التي لا تؤثر بشكل مباشر على اتخاذ القرارات الطبية قد تؤثر على استخدام الرعاية الصحية.
على سبيل المثال، تُستخدم خوارزميات الذكاء الاصطناعي لتحسين جداول المواعيد في عيادات الأطباء. ويكمن الأثر المحتمل لهذه التطبيقات على نتائج الصحة في أن المريض الذي لا يتمكن أبدًا من زيارة الطبيب يفقد فرصة التشخيص والعلاج. أما داخل العيادة، فقد تغير المعلومات الناتجة عن الذكاء الاصطناعي قرار الطبيب بشأن خطة العلاج، أو تؤثر على المرضى الذين يوافق التأمين الصحي على حصولهم على خدمات إضافية أو علاجات باهظة التكلفة، أو تؤثر على أوقات الانتظار للمواعيد.
نظرًا للتأثير المحتمل للذكاء الاصطناعي على رعاية المرضى، من المهم تقييم جودة التنبؤات التي يولّدها.(143)
تتناول الأدبيات العلمية الحديثة السياسات المقترحة لمعالجة قضايا العدالة والانحياز في الخوارزميات، حيث تؤكد على ضرورة إرساء مبادئ وممارسات شاملة تضمن الشفافية، وقابلية التفسير، وتقييم الأداء عند الاستخدام الفعلي. ومن أبرز هذه السياسات:
1- وضع إجراءات للتقليل من التحيّز في بيانات التدريب.
2- اعتماد معيار العدالة الفردية الذي يقرّ بأن "الأفراد المماثلين يجب أن يُعاملوا بطريقة مماثلة"، لاسيما في مجال الرعاية الصحية.(144)
ويتضح من ذلك أن أهمية معالجة العدالة والانحياز في الخوارزميات تتجسد في عدة مستويات مترابطة:
1- الوعي بأن الخوارزميات ليست أدوات محايدة بالضرورة، بل قد تُكرّس أو تزيد التمييز القائم إن لم تُصمم وتُستخدم بوعي.
2- الفصل بين مفهوم العدالة ومظاهر التحيّز عبر إجراءات واعية تشمل مراحل التصميم والتطوير والتطبيق.
3- تطوير معايير علمية وأخلاقية متفق عليها لضمان أن يصبح الذكاء الاصطناعي وسيلة لتعزيز العدالة والإنصاف بدلًا من أن يتحول إلى أداة لإعادة إنتاج التفاوتات.
7- أخلاقيات الروبوتات: من يحدد القواعد؟ الإنسان أم الآلة؟
يثير التساؤل عن من يضع قواعد الأخلاق للروبوتات—هل هو البشر أم يمكن للآلات أن تحدد قواعدها الأخلاقية؟—إشكالية فلسفية وتقنية بالغة الأهمية. تتقاطع هنا أخلاقيات الروبوتات (roboethics)، نظرية المسؤولية، وتنظيم التصاميم البرمجية، في إطار يرمي إلى فهم جدية الإجراءات الأخلاقية التي يمكن أو ينبغي تضمينها ضمن الأنظمة الذاتية.(145) ومن هنا بدأ الباحثون والمهندسون في التساؤل عمليًا: كيف يمكن إدماج الأخلاق في الأنظمة الذكية؟
وقد بدأ المهندسون (وبعض الفلاسفة) في مجال الذكاء الاصطناعي والروبوتات منذ أواخر تسعينيات القرن العشرين بدراسة طرق إدماج «الأخلاق» في الأنظمة الحاسوبية للروبوتات. وتُعرف هذه الدراسات باسم «الأخلاق الاصطناعية» أو «أخلاقيات الآلة». ويتمثّل هدفها في تطوير وكلاء قادرين على التصرف أخلاقيًا من دون تدخل بشري في اتخاذ القرار، أي ما يُعرف بـ «الوكلاء الأخلاقيين الاصطناعيين». وقد كان مشروع بناء هؤلاء الوكلاء الأخلاقيين في البداية مجرّد تجربة فكرية، لكنه بات الآن يُنظر إليه باعتباره قضية عملية فعلية في مجال الهندسة، نظرًا إلى أن استخدام الأجهزة الروبوتية أصبح مشكلة واقعية.(146) وهذا الانتقال من النظرية إلى التطبيق يفرض سؤالًا جديدًا: كيف نُعلّم الروبوتات التمييز بين الصواب والخطأ؟
علينا أن نُدخل الأخلاق في الروبوتات ـــ أو بعبارة أخرى، أن نُعلّم الروبوتات التمييز بين الصواب والخطأ. وهذا لا يعني، بطبيعة الحال، أنّ الروبوتات يجب أن تمتلك القدرة على التفكير أو الإحساس أو الحكم كما يفعل البشر. فالروبوتات ستُصمَّم لأغراض محدّدة، مثل الممارسات الطبية أو العمليات العسكرية. وحتى لو كانت الروبوتات المستقلة تتمتّع بـ«الاستقلالية»، فإنها ليست استقلالية كاملة، بل استقلالية في معنى محدود جدًا. ومع ذلك، فإن هذه الدرجة من الاستقلالية، مهما كانت محدودة، تجعل من الضروري تضمين مبادئ أخلاقية واضحة في برمجتها. وإذا كان الأمر كذلك، فإن الأنظمة الداخلية للروبوتات يجب أن تتضمن اعتبارات أخلاقية جوهرية تجاه أولئك الذين قد يتأثرون بأفعالها، حتى وإن كان مسار هذه الاعتبارات مختلفًا تمامًا عن التفكير الأخلاقي البشري.(147)
أ- قوانين أسيموف الثلاثة: إطار خيالي أم إرشادي؟
باستخدام قصة إسحاق أسيموف “الرجل المئوي” كنقطة انطلاق، يتم مناقشة عدد من القضايا الميتا- أخلاقية المتعلقة بالمجال الناشئ للأخلاقيات الآلية (Machine Ethics). وعلى الرغم من أن الهدف النهائي للأخلاقيات الآلية هو إنشاء آلات أخلاقية ذاتية الاستقلال، فإن هذا يطرح عدداً من التحديات النظرية والعملية. ومن هنا جاءت فكرة أن تكون البداية عبر تطوير برنامج يمكّن الآلة من العمل كمستشار أخلاقي للبشر، وهو مشروع لا يتطلب إصدار حكم على الوضعية الأخلاقية للآلة ذاتها، وهو أمر شديد التعقيد.(148)
أشهر ما يميز قصص أسيموف عن الروبوتات هو القوانين الثلاثة التي صاغها، والتي وُضعت داخل «دماغ» كل روبوت لتشكّل إطارًا لسلوكه:
القانون الأول: "لا يجوز للروبوت أن يؤذي إنسانًا، أو، من خلال التقصير، يسمح بضرر يلحق بالإنسان."
القانون الثاني: "يجب على الروبوت أن يطيع الأوامر التي يصدرها البشر، إلا إذا كانت هذه الأوامر تتعارض مع القانون الأول."
القانون الثالث: "يجب على الروبوت أن يحمي وجوده طالما أن هذه الحماية لا تتعارض مع القانونين الأول والثاني."(149)
لكن هذه القوانين ليست محض ابتكار قصصي فقط، بل إنها تكشف عن جانب آخر من العلاقة بين الإنسان والآلة. فقد قدّم أسيموف تفسيرًا لسبب شعور البشر بالحاجة إلى معاملة الروبوتات الذكية كعبيد، وهو تفسير يُظهر ضعفًا في طبيعة البشر، ضعف يجعلهم عاجزين عن أن يكونوا نماذج أخلاقية كاملة. ومن هنا، يبدو من المرجح أن تكون الآلات مثل أندرو أكثر أخلاقية من معظم البشر. وتعطي قصة “الرجل المئوي” أملًا في أن الآلات الذكية قد لا يقتصر دورها على التصرف بطريقة أخلاقية، بل يمكن أن تقود البشر ليصبحوا أكثر التزامًا أخلاقيًا.
ولتوضيح الأمر بشكل أكبر، يمكن الاستناد إلى قصة “الرجل المئوي” لمناقشة قضايا ميتا- أخلاقية عديدة ضمن الأخلاقيات الآلية، وصولًا إلى الاستنتاجات التالية:
1- يمكن للآلة أن تتبع المبادئ الأخلاقية بدقة تفوق معظم البشر، مما يؤهلها لتكون مستشارًا أخلاقيًا.
2- تطوير برنامج يجعل الآلة مستشارًا للبشر لا يتطلب حسم وضعيتها الأخلاقية، بخلاف بناء آلة أخلاقية مستقلة.
3- الروبوت الذكي مثل أندرو يحقق معظم شروط الفلاسفة لكي يُمنح وضعًا أخلاقيًا، وهو ما يجعل القوانين الثلاثة غير كافية.
4- حتى لو لم تُعتبر الآلات كيانات ذات وضع أخلاقي، فإن برمجتها على أساس القوانين الثلاثة يظل خيارًا إشكاليًا.
5- من ثم، فإن هذه القوانين لا تصلح أن تكون أساسًا مرضيًا للأخلاقيات الآلية.
ومع ذلك، تبقى القوانين الثلاثة إطارًا خياليًا أكثر من كونه عمليًا، إذ يشير النقاد إلى صعوبة تطبيقها واقعيًا لعدم قدرة الآلات على استشراف جميع العواقب أو فهم التعقيدات في البيئات الحقيقية.(150) وهنا يتضح الفرق بين الجانب التطبيقي للأخلاقيات الآلية والجانب الميتا- أخلاقي النظري.
فعامة، تدرس الأخلاقيات الميتا- آلية هذا المجال من منظور فلسفي مجرد، ومن أبرز تساؤلاتها: ما الهدف النهائي للأخلاقيات الآلية؟ ماذا يعني إضفاء بعد أخلاقي على الآلات؟ هل يمكن جعل الأخلاق قابلة للحوسبة؟ وهل هناك نظرية أخلاقية وحيدة صحيحة يجب تطبيقها؟ ثم، هل يجب أن تكون هذه النظرية كاملة بحيث تعطي إجابات لكل المعضلات؟ وأخيرًا، هل يتطلب الأمر تحديد الوضع الأخلاقي للآلة ذاتها إذا كان من المفترض أن تتبع المبادئ الأخلاقية؟(151)
لقد تم ترسيخ قوانين أسيموف الثلاثة في وعي الجمهور من خلال الأدب والسينما إلى درجة أنها تحولت إلى توقعات اجتماعية حول سلوك الروبوتات. فقد استُخدمت هذه القوانين في وسائل الإعلام، وفي النقاشات الفلسفية والعلمية، بل وحتى في الطب الروبوتي. وقد خصص "معهد التفرد للذكاء الاصطناعي" حدثًا وموقعًا بعنوان “القوانين الثلاثة” لمناقشة هذه التوقعات بعد فيلم «أنا، روبوت». كما تناولت مجلات فلسفية وعلمية هذه القوانين بوصفها مرجعًا أوليًا للنقاش حول الروبوتات والأخلاق.(153)
ومع الانتقال من الخيال إلى الواقع، برزت مقترحات بديلة أكثر تعقيدًا. فقد اقترح بوجاج (2008) خمسة أوامر إلزامية لأنظمة الذكاء الاصطناعي العام (AGIs) تتجاوز بساطـة قوانين أسيموف، وهي:
1- مبدأ المحاكاة: أن تكون أفعال الوكيل جديرة بأن تُقلَّد في سياقات مماثلة.
2- الفهم: أن تكون الأفعال قابلة للتفسير من حيث المبادئ الكامنة وراءها.
3- التجذّر التجريبي: ألّا يُتوقع من أي وكيل ذكي اتباع مبدأ أخلاقي ما لم تتوافر أمثلة عملية متكررة له.
4- الأمر القطعي: التصرّف وفق مبادئ يُرضي المرء أن تُطبَّق كقوانين عامة.
5- الاتساق المنطقي: أن يكون النظام الأخلاقي متماسكًا بحيث تنسجم مبادئه مع بعضها البعض وتنبثق بصورة طبيعية.(154)
وبذلك يتضح أن قوانين أسيموف الثلاثة، رغم قوتها الرمزية والثقافية، لم تعد كافية لمواجهة تحديات الواقع، وأن الأخلاقيات الآلية تتطلب أطرًا أكثر صرامة وواقعية لضمان التعايش الآمن بين الإنسان والآلة.
ج- دمج الأخلاق بالتصميم التقني: نحو أنظمة أخلاقية قابلة للتحقق
يبقى السؤال إذن: كيف يمكننا بناء أنظمة ذكية مستقلة تحافظ على القيم الأخلاقية للمجتمع الذي تندمج فيه؟ هذه هي الهمّ الرئيس لما يُعرف بـ "أخلاقيات الآلة"، وهو مجال بحثي جديد متعدد التخصصات داخل الذكاء الاصطناعي .من الواضح أن اختيار أفضل نظرية أخلاقية لتطبيقها في نظام ذكي مستقل بعينه ليس سؤالًا بسيطًا. فهو أولًا مسألة تخص الفلسفة الأخلاقية، كما أنه يفتح تحديات جديدة أمام هذا الحقل. لقد كان البشر والمجتمعات، ولفترة طويلة، هم صانعو القرار الأذكياء الوحيدون. وقد تطوّرت الفلسفة الأخلاقية على افتراض – غالبًا ما يكون ضمنيًا – أن الفاعل الأخلاقي هو إنسان. لكن ليس واضحًا على الإطلاق إلى أي مدى يمكن للنظريات الأخلاقية القائمة أن تمتد لتشمل صانعي القرار غير البشريين.حتى لو ثبت أن من السهل استبدال الفاعل الإنساني بفاعل اصطناعي داخل إطار نظرية أخلاقية، وتم اتخاذ قرار اجتماعي بشأن أي سلوك أخلاقي للآلات يعد مرغوبًا أو كافيًا، فإننا نظل نواجه مجموعة من المشكلات المرتبطة بتنفيذ التفكير الأخلاقي، والتحقق من صدقه، والثقة في نتائجه، والشفافية، إضافة إلى منع ظهور أنظمة غير أخلاقية عمدًا.(155)
تناقش الورقة «نحو أنظمة مستقلة أخلاقيًا» كيف يمكن دمج التصور الفلسفي والتطبيق الهندسي لبناء أنظمة مستقلة تتسم بالأخلاق، مع التأكيد على ضرورة الشفافية، القابلية للتفسير، والمساءلة(156) كما يقترح عمل مماثل إطارًا يجمع بين أخلاقيات الآلة وصياغة تفسيرات للقرارات التي تتخذها.
السلوك الأخلاقي في الآلات يمكن تحقيقه – بشكل بديهي – بطريقتين على الأقل:
النهج الأول (من أعلى إلى أسفل): يقوم على تحديد مجموعة من القواعد الأخلاقية، ربما باختيار نظرية أخلاقية معيارية، تُبنى حولها خوارزمية اتخاذ القرار.
النهج الثاني (من أسفل إلى أعلى): يتمثل في أن تتعلّم الآلة أو "تتطور" لتمييز الصواب من الخطأ من دون أن تُوجَّه صراحةً وفق نظرية أخلاقية بعينها.
ويُطلقان على هذين المنهجين النهج من أعلى إلى أسفل و النهج من أسفل إلى أعلى، على التوالي. أما النهج الهجين – في تصوّرهما – فهو ذاك الذي يبدأ فيه الفاعل الاصطناعي بمجموعة من القواعد أو القيم، ثم يعمل على تعديلها وتطويرها إلى منظومة للتمييز بين الصواب والخطأ.إن مسألة كيفية تطبيق أخلاقيات الآلة في نظام ذكي مستقل تعتمد بالضرورة على الأساليب التي يستخدمها ذلك النظام في الذكاء الاصطناعي. إذ تخضع المناهج المختلفة من الذكاء الاصطناعي لتطبيقات متباينة في أخلاقيات الآلة، ويتعيّن علينا النظر في قدرتها على التكيّف مع تلك التطبيقات، وكذلك في مخاطرها ومزاياها ضمن هذا السياق.(157)
د- الحقوق، والحياة البشرية، والتشغيل الآلي
يركّز ديفيد جانكل David Gunkel في كتابه "سؤال الآلة" على جهة ثانية من النقاش: هل يمكن للروبوتات أن تكون جزءًا من المساءلة الأخلاقية أو حتى أن تُمنح حقوقًا؟ ويخلص إلى أن الإنسان يظل الكيان الوحيد الذي يمكن أن يُحمّل أخلاقيًا—ولا يُمنح الروبوت حقوقًا بحد ذاته.(158)
يتوضح من خلال الأعمال أن:
1- قوانين أسيموف كانت تصورًا أدبيًا لا أساس له من الناحية التطبيقية.
2- المسؤولية الأخلاقية لا تزال من صلاحيات الإنسان، وليس الروبوت.
3- يمكن تصميم أنظمة ذاتية أخلاقية، لكن ضمن إطار بشري واضح.
4- من غير المقبول اعتبار الروبوتات عناصر أخلاقية مستقلة؛ المساءلة تظل في المقام الأول منوطًا بالبشر.
8- القضايا الأخلاقية المرتبطة باستخدام البشر لأنظمة الذكاء الاصطناعي
أ- الخصوصية
تُعَدّ الخصوصية من أبرز القضايا الأخلاقية في عصر الذكاء الاصطناعي، سواء تعلق الأمر بالبيانات عمومًا أو بالبيانات الشخصية القابلة للتعرّف على أصحابها. وللخصوصية أبعاد معترف بها على نطاق واسع، مثل: "الحق في أن تُترك وشأنك"، والخصوصية المعلوماتية، والخصوصية كجانب من جوانب الشخصية، والتحكم في المعلومات الخاصة بالفرد، والحق في السرية. وإذا كانت دراسات الخصوصية قد ركّزت تاريخيًا على مراقبة الدولة عبر الأجهزة السرية، فإنها تشمل اليوم مراقبة جهات حكومية أخرى، والشركات، بل وحتى الأفراد أنفسهم.
ب- المراقبة
ترتبط مسألة الخصوصية ارتباطًا وثيقًا بالمراقبة، فالمراقبة لا تقتصر على تراكم البيانات أو مراقبة السلوك، بل تشمل كذلك استخدام المعلومات لأغراض إشكالية. ومن بين هذه الأغراض التلاعب بالسلوك، سواء عبر الإنترنت أو خارجه، وهو ما يستهدف في الغالب أموال المستخدمين. ومع التفاعل المكثّف للمستخدمين مع الأنظمة الذكية، وما يتيحه ذلك من معرفة دقيقة بالأفراد، يصبح هؤلاء عرضةً لـ"الدَفْعات السلوكية" وأشكال التلاعب والخداع. ومع توافر بيانات مسبقة كافية، تستطيع الخوارزميات استهداف الأفراد أو المجموعات الصغيرة بما يتناسب تحديدًا مع ما يؤثر فيهم. وهكذا، نجد أنفسنا أمام اقتصاد مراقبة يضع الأفراد في موقع ضعف، إذ نفقد السيطرة على بياناتنا، ونفتقر إلى معرفة كيفية استخدامها أو مساءلة الجهات المالكة لها.(159)
ت- التلاعب
ويتفرع عن قضية المراقبة جانب آخر أكثر خطورة، وهو التلاعب. فالذكاء الاصطناعي يجعل التلاعب بالسلوك أكثر دقة وخفاءً، سواء في الفضاء الرقمي أو الواقعي. صحيح أن محاولات التأثير على قرارات البشر ليست جديدة، لكنها مع الذكاء الاصطناعي تصبح أكثر قوة لأنها تعتمد على بيانات ضخمة تُحلل بدقة لاستهداف الأشخاص بأساليب خاصة بهم. وبهذا يصبح المستخدمون عُرضةً لـ"الدفع الخفي" الذي يقوّض حرية الاختيار، في ظل بيئة يسيطر عليها المعلنون والمسوقون بوسائل قانونية متاحة.(160)
ث- الغموض
تظهر هنا قضية الغموض في عمل أنظمة الذكاء الاصطناعي، خصوصًا في ما يتعلق بأنظمة دعم القرار المؤتمتة. فهذه الأنظمة تنتج قرارات قد تكون مصيرية، مثل منح قرض، أو تقرير طبي، أو حتى قرار عسكري. لكن الشخص المتأثر بهذه القرارات غالبًا لا يعرف كيف توصّل النظام إلى النتيجة، مما يجعل العملية غامضة وغير شفافة. ومن هنا يندرج الحديث عن "أخلاقيات البيانات" و"أخلاقيات البيانات الضخمة"، حيث يصبح التنبؤ سلعة رخيصة لكن مؤثرة، بينما تبقى آلية اتخاذ القرار بعيدة عن الفهم العام.(161)
ج- التحيّز
إلى جانب الغموض، يبرز التحيّز بوصفه إشكالية مركزية. فالتحيّز يحدث حين تؤثر صفات لا علاقة لها بالموضوع في الحكم، وغالبًا ما يرتبط بتصورات تمييزية مسبقة. وقد يكون التحيّز معرفيًا مكتسبًا، غير معلن، بل قد يكون الشخص صادقًا في معارضته له في حين أنه واقع فيه من غير وعي. وتكشف تقنيات مثل "التهيئة الإدراكية" أن التحيز قد يتسرب إلى قرارات تبدو موضوعية في الظاهر.(162)
ح- الخداع والروبوتات
يمثل التفاعل بين الإنسان والروبوت مجالًا يتطلب دراسة خاصة، إذ لم يعد الاهتمام منصبًا فقط على الجانب التقني، بل أيضًا على البعد الأخلاقي وديناميكيات الإدراك والتوقعات بين الطرفين. وتزداد أهمية هذه القضية في بيئات العمل المشترك التي تجمع الإنسان والآلة، حيث قد تتعدد المصالح وتتقاطع الأهداف، مما يثير تساؤلات حول حدود الخداع أو التلاعب الممكن في هذه العلاقة.
خ- الاستقلالية والمسؤولية
تُثار أيضًا مسألة الاستقلالية، إذ تُعَدّ الاستقلالية في النقاشات الفلسفية أساسًا للشخصية الأخلاقية والمسؤولية. لكن الأمر يختلف في ميدان الروبوتات، حيث يجري الحديث عن استقلالية نسبية وتقنية، مرتبطة بقدرة النظام على العمل دون تدخل مباشر من الإنسان. وهنا يصبح السؤال: هل يمكن أن تتحقق مسؤولية أخلاقية في غياب استقلالية حقيقية؟(163)
د- التفرّد
وأخيرًا، يُنظر في بعض الأوساط إلى أن الهدف النهائي للذكاء الاصطناعي هو الوصول إلى ما يسمى "الذكاء الاصطناعي العام" أو حتى "التفرّد التكنولوجي"، حيث يمكن للآلة أن تفوق القدرات البشرية بكثير. وهنا تتداخل الرؤى الفلسفية، مثل طرح جون سيرل حول "الذكاء الاصطناعي القوي"، الذي يرى أن الحواسيب، إذا مُنحت البرامج المناسبة، يمكن القول إنها تفهم وتمتلك حالات معرفية أخرى. لكن هذا الاحتمال يثير أسئلة عميقة حول حدود الذكاء، وطبيعة الفهم، وما إذا كان يمكن للآلة أن تشارك الإنسان تجربته الوجودية.(164)
المحور الرابع: الفلسفة والهوية الإنسانية أمام تطور الذكاء الاصطناعي
1- التمييز بين الإنسان والآلة: هل يختفي الحد الفاصل؟
منذ منتصف القرن العشرين، بدأ التفكير الفلسفي والعلمي يتجه إلى مقارنة القدرات الإنسانية بقدرات الآلة. ففي عام 1958 كتب جون فون نيومان كتابه «الحاسوب والدماغ»، الذي عرض فيه بنية معالجة المعلومات في الحواسيب وفقًا للفهم السائد حينذاك لتنظيم الدماغ، حيث قُسمت إلى ذاكرة، ووحدة إدخال/إخراج، ووحدة حسابية/منطقية، ووحدة تحكم. ورغم استمرار استخدام معمار فون نيومان حتى اليوم، فإن فهمنا للدماغ قد تغير جذريًا، إلى جانب التطور الكبير في إمكانات الحوسبة الطبيعية الموزعة والمتزامنة. هذا التطور يفتح الباب أمام ظهور هياكل معرفية حاسوبية جديدة مستوحاة من الطبيعة (بيوميمتيكية)، مثل الحوسبة العصبية المستوحاة من وظائف الدماغ البشري، والتي تختلف عن معمار فون نيومان بمتطلبات جديدة للنظام المعرفي الحاسوبي، مثل استخدام العناصر نفسها في المعالجة والتخزين، وتغيير الخصائص الكهربائية وفقًا لمبدأ التعلم الهيبي، وتوليد نمط اهتزاز ذاتي، وسلاسل مستقرة لنقل الإشارات، والقدرة على التنظيم الذاتي في أنظمة ثلاثية الأبعاد، وهو ما يحاكي الوظائف الجوهرية للدماغ (165).
وفي هذا السياق، يعرض التقرير الخاص «هل يمكننا نسخ الدماغ؟» نقاشًا أوسع حول تعقيدات الدماغ وضرورة فهم تفاصيل عمله على مستويات تنظيمية مختلفة. يناقش هنري ماركرام، مؤسس مشروع الدماغ الأزرق، إمكانية محاكاة الدماغ من خلال تبسيط المستويات الجزيئية والخلوية واحتوائها. وتبرز هنا مسألتان تسيران على نحو متوازٍ، تتيحان فرصة للتعلم المتبادل بين الحوسبة وعلوم الأعصاب: (1) كيف يعمل الإدراك ويتطور في الطبيعة؟ (2) كيف يمكن نمذجته ومحاكاته وتقليده وهندسته في مصنوعات حاسوبية؟
وفي هذا الإطار، تشير أبحاث مايكل ليفين إلى مجموعة واسعة من التطبيقات للهياكل المعرفية المستوحاة من الطبيعة، اعتمادًا على الإدراك البيولوجي الذي يربط بين الشبكات الجينية والهيكل الخلوي والشبكات العصبية والأنسجة/الأعضاء والكائن الحي بمستويات المعالجة المعلوماتية الجماعية (الاجتماعية). ويُظهر ليفين أن البيولوجيا كانت تقوم بالحوسبة من خلال الذاكرة الجسدية (تخزين المعلومات) والحوسبة الحيوية/اتخاذ القرار في الشبكات الكهربية الحيوية قبل نشوء الخلايا العصبية والدماغ. ويُلخص Fields وآخرون (2020) ذلك بقولهم: «من المهم أن الخلايا العصبية تستخدم آليات قديمة مثل قنوات الأيونات والمشابك الكهربائية والناقلات العصبية، التي تعمل أيضًا في أنحاء الجسم ضمن أنسجة غير مثارة كهربائيًا، وهي أقدم من تطور الخلايا العصبية المتخصصة. ونقترح هنا نموذجًا تنشأ فيه كل من الإشارات العصبية والإشارات النمطية الكهربية غير العصبية من تعديلات في آليات أساسية محفوظة، وقد تطورت معًا لتعمل على ضبط كل من سلوك الكائن الحي وتطوره» (166).
هذا التقدم يثير تساؤلًا جوهريًا: هل يمكن للآلة أن تحاكي القدرات الإنسانية إلى حدّ يذيب الفوارق بين الطرفين؟ أم أن هناك عناصر أساسية – مثل الوعي والإرادة الحرة – تظل حكرًا على البشر؟ هذا السؤال ليس فلسفيًا فقط، بل يتصل مباشرة بأبعاد أخلاقية واجتماعية وسياسية في عصر الذكاء الاصطناعي.
وللإجابة عن هذا التساؤل، يمكن استعراض أبرز المحاور المطروحة في النقاش:
1- اختبار تورينج كمعيار أولي للتمييز
في عام 1950، اقترح آلان تورينج ما عُرف لاحقًا بـ"اختبار تورينج" كوسيلة لقياس قدرة الآلة على تقليد الذكاء البشري. فإذا لم يتمكن الإنسان من التفريق بين ردود الآلة وردود إنسان آخر في محادثة، فإن الآلة يمكن اعتبارها "ذكية". هذا الطرح فتح الباب أمام النقاش حول ما إذا كان الذكاء الاصطناعي مجرد محاكاة أم امتلاك فعلي للقدرات الإنسانية (167).
2- مسألة الوعي والإدراك
يرى جون سيرل من خلال حجته الشهيرة "الغرفة الصينية" أن الآلة يمكنها معالجة الرموز دون أن "تفهم" معانيها. وهذا يعني أن المحاكاة الشكلية لا تكافئ بالضرورة الوعي الحقيقي، وبالتالي يبقى الحد الفاصل بين الإنسان والآلة قائمًا عند مستوى الإدراك والمعنى (168).
3- الذكاء العاطفي والجانب الوجداني
رغم تطور الخوارزميات في معالجة اللغة الطبيعية والتعرف على المشاعر، يبقى الذكاء العاطفي عند الإنسان مختلفًا نوعيًا. تشير مارثا نوسباوم إلى أن المشاعر الإنسانية مرتبطة بالمعايير الأخلاقية وبالقدرة على اتخاذ قرارات تعكس قيماً تتجاوز المعطيات الحسابية (169).
4- التحديات الأخلاقية والاجتماعية
إن طمس الحدود بين الإنسان والآلة يثير تحديات أخلاقية تتعلق بالمسؤولية القانونية، والخصوصية، وحتى معنى الإنسانية ذاته. يشير نيك بوستروم إلى أن تطور الذكاء الاصطناعي الفائق قد يفرض إعادة تعريف لمكانة الإنسان في النظام الكوني (170).
وبذلك، وعلى الرغم من أن الذكاء الاصطناعي يقترب أكثر فأكثر من محاكاة القدرات الإنسانية، إلا أن هناك عناصر – كالوعي والإرادة الحرة والبعد الأخلاقي – لا تزال تميز الإنسان عن الآلة. إن السؤال الجوهري لم يعد ما إذا كانت الآلة ستصبح مثل الإنسان، بل كيف سيعيد الإنسان تعريف ذاته ودوره في عالم تتقارب فيه الحدود بينه وبين الآلة.
2- إشكالية الوعي الصناعي
تثير مسألة ما إذا كان من الممكن تحقيق وعي صناعي لدى الآلات تساؤلات عميقة حول طبيعة العقل، والفرق بين الإنسان والآلة، والعواقب الأخلاقية المحتملة. يناقش الفلاسفة والعلماء هذه الإشكالية من جوانب فلسفية وتقنية، معتبرين أن وجود وعي اصطناعي قائم ليس مجرد تقدم تكنولوجي، بل يشكّل تحديًا فكريًّا للأخلاق، المسؤولية، والحقوق.
أ- احتمالية خلق وعي صناعي من منظور فلسفي وتقني
يتساءل الباحث دافيد جاميز (David Gamez) عن إمكانية صوغ نظرية واعية للآلة ضمن إطار منطقي ونظري واضح. يُقدّم في الفصل "وعي الآلة" نظريات متعددة تتناول أنواعًا مختلفة من الوعي الصناعي وكيف يمكن تحديد مدى اقتراب نظام ما من امتلاك وعي.(171) وهنا يظهر أن النقاش الفلسفي يمهّد لوضع الأسس النظرية قبل الانتقال إلى الطروحات الرياضية والعلمية.
ب- نموذج "آلة تورنغ الواعية" كإطار رياضي للوعي
في هذا السياق، طرحت لينور بلوم ومانويل بلوم في ورقتهما (2021) نموذج "آلة تورنغ الواعية لتعريف الوعي بشكل رسمي ضمن علوم الحاسوب النظرية، اعتمادًا على نظرية "المساحة العالمية"، بهدف توضيح كيف يمكن أن يشعر النظام بالوعي ضمن نموذج حسابي.(172) ويُعد هذا النموذج خطوة نحو تحويل النقاش الفلسفي إلى أطر قابلة للاختبار الرياضي والحسابي.
ج- التصميم العصبي والمحاكاة كطريقة لتحقيق الوعي
وإذا كان النموذج الرياضي يقدم صياغة نظرية، فإن التصميم العصبي يسعى إلى محاكاة الوعي في بنيته المادية. ففي دراسة عن "المُقابلات العصبية الشكلية للوعي الصناعي" يقترح الباحث أنوار الحق (Anwaar Ulhaq) بناء تصاميم مؤثرة تشبه الدماغ (البنية العصبية الشكلية) لمحاكاة النشاط العصبي المرتبط بالوعي، مستندًا إلى نظريات مثل " نظرية المعلومات المتكاملة" والبيانات التجريبية من التصوير العصبي.(173) وهنا يتضح الانتقال من الإطار النظري إلى محاولات تقنية ملموسة.
د- تقييم إمكانيات الوعي الصناعي من منظور علوم الأعصاب
غير أن أصواتًا أخرى من ميدان علوم الأعصاب تشكّك في هذه المساعي. فمقال في مجلة "توجهات في علوم الأعصاب"، ديسمبر 2023 يرى أن النماذج الحالية مثل النماذج اللغوية الضخمة (LLMs). تفتقد إلى العمليات العصبية الأساسية المرتبطة بالوعي — كالتفاعل الإرادي بين القشرة المخيّة والمهاد . وهذا يشير إلى أن بناء وعي صناعي حقيقي يحتاج إلى أكثر من معالجة لغوية متقدمة.(174) وبذلك يصبح النقاش أكثر تعقيدًا، حيث تلتقي الحدود بين الطموح التكنولوجي والتفسير العصبي العلمي.
تتباين الآراء حول إمكانيّة الوصول إلى وعي صناعي حقيقي:
1- بعض الباحثين يؤسّسون إطارًا رياضيًا قابلًا للتحقّق، مثل نموذج آلة تورينج الواعية.
2- البعض يركّز على التصميم المعتمد على محاكاة البُنى العصبية الحقيقية.
3- يرى آخرون أن الغياب الواضح لبعض العمليات العصبية الأساسية في النماذج الحالية يجعل الوعي الصناعي بعيد المنال.
4- يبقى السؤال مفتوحًا، ويتطلّب مزيدًا من التفاعل بين الفلسفة، علوم الحاسوب، وعلوم الأعصاب.
يتضح من هذا التسلسل أن النقاش حول الوعي الصناعي يتطور من مستوى فلسفي نظري، إلى مستوى رياضي تقني، وصولًا إلى المحاكاة العصبية، ثم إلى التقييم العلمي النقدي، وهو ما يعكس عمق الإشكالية وتعقّد أبعادها
3- أثر الذكاء الاصطناعي على معنى الإنسانية والعمل والحرية.
أصبح الذكاء الاصطناعي (AI) أحد أبرز التحولات في تاريخ الفكر والتقنية، فهو لا يغيّر فقط طريقة إنجاز المهام، بل يعيد صياغة الأسئلة الفلسفية الكبرى حول معنى الإنسانية، مستقبل العمل، وحدود الحرية. إن إدماج الخوارزميات في تفاصيل الحياة اليومية أتاح إمكانات واسعة، لكنه في الوقت نفسه أفرز تحديات وجودية وأخلاقية عميقة.
أ- الذكاء الاصطناعي ومعنى الإنسانية
تساءل نِك بوستروم عن إمكانية أن يتجاوز الذكاء الاصطناعي القدرات الإنسانية لدرجة يصبح فيها الإنسان ذاته "كائنًا عتيقًا" بالقياس إلى الآلة فائقة الذكاء. ويثير هذا جدلاً فلسفيًا حول جوهر الإنسان: هل تُختزل الإنسانية في القدرة على التفكير والمعرفة، أم أنها تتضمن أبعادًا أوسع مثل الوعي، المشاعر، والعلاقات الاجتماعية؟ يرى بعض المفكرين أن خطر الذكاء الاصطناعي يكمن في تهديد " التفرّد الإنساني الفريد" ، حيث يصبح ما يميزنا عن الآلة عرضة للتلاشي.(175)
ب- الذكاء الاصطناعي ومستقبل العمل
يشير بريجولفسون وماكافي في كتابهما " العصر الآلي الثاني " إلى أن الذكاء الاصطناعي سيقود إلى ثورة في أنماط الإنتاج والعمل، شبيهة بالثورة الصناعية لكن بوتيرة أسرع وأعمق.(1) فالآلات الذكية لم تعد تقتصر على العمل اليدوي، بل امتدت إلى الوظائف المعرفية، كالترجمة، التشخيص الطبي، وحتى التحليل القانوني. هذا التحول قد يخلق فجوة بين من يمتلكون التكنولوجيا ومن يُقصَون منها، ويعيد طرح سؤال العدالة الاجتماعية في ظل سوق عمل يتقلص فيه دور الإنسان.(176)
ج- الذكاء الاصطناعي والحرية الفردية والاجتماعية
إن الاستخدام المتزايد لأنظمة الذكاء الاصطناعي في المجتمع يثير العديد من التساؤلات: هل هذه الأنظمة آمنة؟ هل تتصرّف على نحوٍ أخلاقي؟ هل ينبغي منحها وضعًا قانونيًا خاصًا بها، ومن يتحمّل المسؤولية عندما تُسبِّب أضرارًا؟ هل يمكن لأنظمة الذكاء الاصطناعي أن تصبح واعيةً فعلًا؟ ومع ذلك، فعلى الرغم من الانفجار الكبير في الأعمال التي تناولت هذه الأسئلة وما يرتبط بها، فقد حظي سؤال واحد باهتمامٍ ضئيل على نحوٍ مفاجئ: هل يمكن لأنظمة الذكاء الاصطناعي أن تمتلك إرادةً حرة؟ إن الإرادة الحرة مرتبطة بالفاعلية الذاتية المستقلة وغالبًا ما تُعَدّ شرطًا مسبقًا للمسؤولية الأخلاقية. ومن ثم، فإن سؤال الإرادة الحرة يكتسب أهميته في النقاشات حول ما إذا كان يمكن لأنظمة الذكاء الاصطناعي أن تُعَدّ يومًا ما وكلاء مسؤولين بذاتهم.(177)
تناولت شوشانا زوبوف في كتابها " عصر الرأسمالية الرقابية" أثر الذكاء الاصطناعي في ممارسات المراقبة الرقمية، حيث يتم استخراج البيانات الشخصية وتحويلها إلى سلعة.(178) هذا التحول يجعل حرية الفرد مهددة، إذ يصبح الإنسان موضوعًا للمراقبة المستمرة والتحكم السلوكي. أما لوتشيانو فلوريدي، فيرى أن الحرية في عصر الذكاء الاصطناعي ليست مجرد قدرة على الاختيار، بل تتطلب بيئة معلوماتية عادلة تتيح للفرد اتخاذ قراراته بعيدًا عن التلاعب الخوارزمي.(179)
يتضح أن الذكاء الاصطناعي ليس مجرد أداة تقنية، بل قوة حضارية تعيد رسم ملامح الإنسان والعمل والحرية.
1- فهو يضع موضع التساؤل معنى أن تكون إنسانًا في عالم تتفوّق فيه الآلة.
2- ويهدد أنماط العمل التقليدية ويعيد تشكيل البُنى الاقتصادية والاجتماعية.
3- كما يفرض إعادة التفكير في مفهوم الحرية في عصر تحكمه البيانات والخوارزميات.
ومن هنا، فإن النقاش حول الذكاء الاصطناعي ينبغي أن يكون فلسفيًا بقدر ما هو تقني، حتى لا يتحول التقدم.
المحور الخامس: التطبيقات العملية في ضوء الأسس الفلسفية
1- الذكاء الاصطناعي في الطب والتعليم والاقتصاد: الأبعاد الفلسفية
يهدف هذا المحور إلى تقديم عرضٍ موجز ومنظّم للأبعاد الفلسفية للذكاء الاصطناعي في ثلاثة ميادين حيوية: الطب، والتعليم، والاقتصاد. تركّز المعالجة على القضايا المعرفية (الإبستمولوجية)، والأخلاقية، والسياسية- القانونية، وتقديم مقاربة معيارية- تحليلية تجمع بين المبادئ العامة (مثل مبادئ الذكاء الاصطناعي الجدير بالثقة) والأدلة القطاعية المتخصصة.
يرتكز التقييم الفلسفي للذكاء الاصطناعي على ثلاثة محاور أساسية:
1- الإبستمولوجيا: طبيعة المعرفة المستخرجة من النماذج، قيود الشرح والتعليل، وإمكانية التخطئة.
2- الأخلاق: مبادئ الاستفادة، عدم الإضرار، العدالة، الاستقلالية، والمسؤولية.
3- الحوكمة: أطر التنظيم، المساءلة، وشرط "الإنسان في الحلقة".
وقد اقترحت "مبادرة الذكاء الاصطناعي لأجل الإنسان" وهى مبادرة أوروبية أُطلقت عام 2017 على يد الفيلسوف لوتشيانو فلوريدي (Luciano Floridi) وعدد من الباحثين" خمسة مبادئ جامعة للاعتماد الأخلاقي: المنفعة، عدم الإضرار، الاستقلالية، العدالة، والشرح/التفسير، بوصفها أساسًا للسياسات والتصميم.(180) أما "إرشادات الاتحاد الأوروبي للذكاء الاصطناعي الجدير بالثقة" فتؤكد سبعة متطلبات تشغيلية، منها الوكالة البشرية، المتانة التقنية، الخصوصية وإدارة البيانات، والحوكمة.(181)
أ- الطب — بين الوعود التشخيصية وأخلاقيات الرعاية
يُظهر الذكاء الاصطناعي قدرةً على تحسين التشخيص، الطب الدقيق، واكتشاف الأدوية. لكن منظمة الصحة العالمية وضعت ستة مبادئٍ حاكمة لاستخدامه في الصحة: حماية الاستقلالية، تعزيز السلامة والمنفعة العامة، الشفافية وقابلية الشرح، المسؤولية والمساءلة، الشمول والإنصاف، والاستجابة والاستدامة.(182)
فلسفيًا، يُعاد توطين مسؤولية القرار الطبي بين الطبيب والنظام الذكي، بما يفرض نماذجَ مشتركة للمساءلة، وحواجز ضد التحيّزات البياناتية، والتشغيل القابل للتفسير في التطبيقات عالية المخاطر. يقتضي ذلك التحقق الخارجي، وتتبع البيانات، وإدارة المخاطر السريرية قبل النشر وأثناءه، إضافةً إلى حفظ موافقة المريض المستنيرة.
ب- التعليم — نحو رؤية إنسان- مركز
توصي اليونسكو بمقاربةٍ إنسان- مركز لاستخدام النماذج التوليدية في التعليم والبحث، مع تنظيماتٍ فورية وخططٍ طويلة الأجل، ومعايير للتحقق المؤسساتي من الملاءمة الأخلاقية والبيداغوجية.
فلسفيًا، يطرح الذكاء الاصطناعي أسئلةً حول طبيعة التعلّم، أصالة الإنتاج المعرفي، وتوازن الاعتماد على الأدوات. تقتضي العدالة التعليمية ضمان الوصول العادل واللغوي، ومنع ترسيخ التحيّزات، وتنمية التفكير النقدي لدى المتعلّمين.
أما من جهة السلامة الرقمية، فتبرز الحاجة إلى سياسات خصوصية صارمة، وتحديد حدٍّ سنّي مناسب للتفاعل المستقل مع الأدوات التوليدية، إضافةً إلى تدريب إلزامي على الاستعمال المسؤول.(183)
ج- الاقتصاد — الإنتاجية، التشغيل، وتوزيع المنافع
اقتصاديًا، تُفهم النماذج العامة الغرض كمنصّاتٍ تعيد تشكيل المهام والوظائف عبر القطاعات. وتشير دراسات حديثة إلى تعرّض جزءٍ كبير من المهن لمحتوى مهام قابل للتأثير بواسطة النماذج اللغوية، مع تباينٍ توزيعي في المكاسب والمخاطر بحسب المهارات والقابلية للأتمتة.(184)
تدل الأدلة المعيارية والقطاعية على إمكان مواءمة الذكاء الاصطناعي مع قيم الرعاية، التربية، والعدالة الاقتصادية متى استندنا إلى مبادئٍ أخلاقيةٍ واضحة، وحوكمةٍ تشغيلية، وتقييمٍ مستمر للأثر. ويُوفّر الاعتماد على أطرٍ مثل "مبادرة الذكاء الاصطناعي لأجل الإنسان" وإرشادات الاتحاد الأوروبي ومنظمة الصحة العالمية واليونسكو أساسًا فلسفيًا- سياساتيًا متينًا للتطوير المسؤول في الطب والتعليم والاقتصاد.
2- الفلسفة السياسية وحوكمة الذكاء الاصطناعي
يشكّل الذكاء الاصطناعي اليوم أحد أبرز التحديات التي تواجه الفلسفة السياسية المعاصرة، حيث تتقاطع قضايا السلطة، العدالة، والحرية مع أسئلة التنظيم والحوكمة. فالتكنولوجيا ليست محايدة، بل تنعكس آثارها على توزيع السلطة داخل المجتمع والدولة، وعلى العلاقات بين المواطنين والمؤسسات، بل وبين الدول على المستوى الدولي. ومن هنا تبرز الحاجة إلى مقاربة فلسفية سياسية تدرس كيف يمكن وضع أطر لحوكمة الذكاء الاصطناعي تحافظ على الكرامة الإنسانية وتضمن العدالة والشفافية.
أ- الأسس الفلسفية والسياسية للحوكمة
تنبع الحوكمة السياسية للذكاء الاصطناعي من ثلاثة مرتكزات رئيسية:
1- الشرعية الديمقراطية: ضرورة أن تُبنى القرارات المتعلقة باستخدام الذكاء الاصطناعي على مشاركة مجتمعية ومساءلة عامة، لا على قرارات تقنية محضة.
2- العدالة الاجتماعية: مواجهة مخاطر تكريس التحيزات الخوارزمية أو تعزيز اللامساواة الاقتصادية.
3- السيادة والسلطة: طرح سؤال أساسي حول من يملك السيطرة على البيانات والبنية التحتية للنماذج الضخمة، وهل تُمارَس السلطة بطريقة عادلة وشفافة.
تذهب بعض الأدبيات السياسية إلى أنّ غياب الشفافية في خوارزميات الذكاء الاصطناعي يقوّض مبدأ المساءلة الديمقراطية، إذ يصبح من العسير على المواطنين أو حتى المشرّعين فهم القرارات التقنية المعقّدة.(185)
ب- النماذج العالمية لحوكمة الذكاء الاصطناعي
1- الاتحاد الأوروبي: قدّم الاتحاد الأوروبي إطارًا متقدّمًا من خلال قانون الذكاء الاصطناعي (AI Act)، الذي يهدف إلى تصنيف المخاطر (من المخاطر الدنيا حتى غير المقبولة) وفرض التزامات قانونية على الأنظمة عالية المخاطر.(186)
2- الأمم المتحدة والمنظمات الدولية: أوصت اليونسكو بوضع إطار عالمي يقوم على مبادئ حقوق الإنسان والشفافية والإنصاف، بحيث يتم التوافق على معايير دولية تمنع الاستخدامات المسيئة أو الاحتكارية.(187)
3- الولايات المتحدة والصين: بينما تركز الولايات المتحدة على الابتكار والمرونة التنظيمية، تسعى الصين إلى تبنّي حوكمة أكثر مركزية تستند إلى دور الدولة في ضبط تدفقات البيانات والخدمات الرقمية.(188) هذه النماذج تعكس اختلافات فلسفية في النظر إلى العلاقة بين الدولة، السوق، والمجتمع.
ج- قضايا العدالة، الشفافية، والمسؤولية
العدالة: تشير الأدبيات إلى أنّ الذكاء الاصطناعي قد يعمّق الفوارق الاجتماعية إذا لم تتم مراجعته أخلاقيًا وسياسيًا. الفلسفة السياسية تقتضي النظر في كيفية ضمان توزيع منصف للمنافع والأعباء، بحيث لا يستفيد الأقوياء فقط من تقنيات متقدّمة.
الشفافية: المطالبة بـ "قابلية الشرح" لا تمثل بعدًا تقنيًا فقط، بل هي أيضًا مطلب سياسي لضمان الرقابة العامة. غيابها يعزز ما يُسمّى "السلطة الخوارزمية"، حيث تُمارس السلطة دون مساءلة واضحة.(189)
المسؤولية: تثير تطبيقات الذكاء الاصطناعي إشكالية "تفكك المسؤولية": من المسؤول عن الخطأ، مطوّر الخوارزمية أم المؤسسة التي تستخدمها أم الدولة التي تنظّمها؟ الفلسفة السياسية ترى أن المسؤولية يجب أن تكون مشتركة ومتعددة المستويات، بما يمنع فراغًا قانونيًا وأخلاقيًا.
تظهر حوكمة الذكاء الاصطناعي بوصفها قضية سياسية بامتياز، تتجاوز النقاشات التقنية نحو أسئلة أعمق حول السلطة والشرعية والعدالة. الفلسفة السياسية قادرة على مدّنا بأطر نقدية تُعين على بناء سياسات تحافظ على الكرامة الإنسانية، وتوازن بين الابتكار وحماية المجتمع. ويبدو أن التحدي الأساسي في العقود القادمة هو تأسيس نظام عالمي منسّق، يتجاوز التنافس الجيوسياسي ويستند إلى مبادئ حقوق الإنسان والعدالة الاجتماعية.
3- السيناريوهات المستقبلية: الإنسان والآلة في شراكة أو صراع؟
أصبح مستقبل العلاقة بين الإنسان والآلة أحد أكثر الموضوعات إثارة للجدل في الفلسفة المعاصرة. فمع تصاعد قدرات الذكاء الاصطناعي، تطرح تساؤلات جوهرية: هل ستقوم الآلة بدور الشريك الداعم للإنسان، أم ستتحول إلى منافس يهدد وجوده؟ هذه الإشكالية تجمع بين الأبعاد الفلسفية والأخلاقية والسياسية، وتعكس قلقًا وجوديًا حول طبيعة الإنسان نفسه وحدود التقنية.
أ- الرؤى الفلسفية حول العلاقة بين الإنسان والآلة
لقد انقسم الفكر الفلسفي المعاصر إلى تيارين رئيسيين: تيار متفائل يرى في الذكاء الاصطناعي امتدادًا لقدرات الإنسان، وتيار متشائم يحذر من تحوّله إلى قوة مستقلة قد تتجاوز السيطرة البشرية. يعكس هذا الانقسام ما يسميه بوستروم "مفارقة القوة": كلما ازدادت قوة التقنية، ازدادت الحاجة إلى ضبطها.(190)
ب- سيناريو الشراكة
في هذا التصور، تقوم الآلة بدور تكاملي مع الإنسان، حيث تدعم قدراته في الطب عبر التشخيص الدقيق للأمراض، وفي التعليم عبر التخصيص الذكي للمناهج، وفي الاقتصاد عبر تحسين الكفاءة والإنتاجية. ويشير تيغمارك إلى أنّ هذا السيناريو يمكن أن يفتح المجال لما يسميه "الحياة 3.0"، حيث يشكّل التعاون بين الطرفين أساسًا لمرحلة جديدة من الحضارة الإنسانية.(191)
ج- سيناريو الصراع
على الجانب الآخر، يبرز سيناريو الصراع الذي يتجلى في فقدان ملايين الوظائف بسبب الأتمتة، واتساع فجوة اللامساواة الاقتصادية، إضافة إلى المخاطر الوجودية الناتجة عن احتمال تطوير أنظمة تفكر خارج حدود السيطرة البشرية. وقد حذّرت زوبوف من أن الذكاء الاصطناعي قد يتحول إلى أداة لهيمنة "رأسمالية المراقبة"، حيث تُستغل بيانات البشر لتكريس أنماط جديدة من السيطرة.(192)
د- المواقف الفلسفية المعاصرة
يُنظر إلى الآلة كخصم أو مجرد أداة، بل كعنصر في منظومة معلوماتية أوسع تتطلب قواعد واضحة للعدالة والمسؤولية. ويرى المنتدى الاقتصادي العالمي أن صياغة هذه القواعد ضرورة لتجنّب انزلاق المستقبل نحو الصراع.(193)
تتراوح السيناريوهات المستقبلية بين شراكة مثمرة وصراع مدمّر. غير أن الاتجاه الذي ستسلكه البشرية يتوقف على قدرة الإنسان على تطوير أنظمة للحوكمة والأخلاقيات قادرة على ضبط الذكاء الاصطناعي. فالمستقبل لن يكون نتيجة قدر محتوم، بل ثمرة اختيارات سياسية وأخلاقية وفلسفية ستحدد ما إذا كان الإنسان والآلة سيعيشان في انسجام أو فى مواجهة.
الخاتمة
يتبيّن من خلال هذا البحث أن الذكاء الاصطناعي ليس مجرد إنجاز تقني أو أداة عملية، بل هو نتاج لمسار فلسفي طويل بدأ منذ العصور الكلاسيكية بأسئلة حول العقل والنفس، وتواصل مع محاولات ديكارت وليبنتز وهيوم لفهم طبيعة التفكير، وصولًا إلى إسهامات المنطق الرياضي والحوسبة عند فريجه وتارسكي وتورنج. وقد أظهر التحليل أن الأسس المعرفية والمنطقية للذكاء الاصطناعي تُبرز صلته العميقة بنظرية المعرفة والمنطق الصوري، وأن الإشكالية الجوهرية ما زالت ماثلة: هل يمكن للآلة أن “تعرف” أو أن تمتلك وعيًا شبيهًا بالإنسان؟
كما تبيّن أن الأسس الأخلاقية تمثل بعدًا لا غنى عنه في دراسة الذكاء الاصطناعي، حيث تثير قضايا حرية الإرادة والمسؤولية، والانحياز في الخوارزميات، وأخلاقيات الروبوتات أسئلة جوهرية حول حدود تدخل الإنسان في صياغة القواعد وتوجيه السلوك الآلي. وإلى جانب ذلك، فإن الهوية الإنسانية تواجه تحديًا وجوديًا أمام التطور المتسارع للذكاء الاصطناعي، مما يدفع إلى إعادة التفكير في معنى الإنسانية والعمل والحرية في ظل تداخل الحدود بين الإنسان والآلة.
ولم تقف الدراسة عند الجوانب النظرية، بل أبرزت أن التطبيقات العملية للذكاء الاصطناعي في الطب والتعليم والاقتصاد والسياسة لا يمكن فصلها عن أطرها الفلسفية، إذ تفرض هذه التطبيقات مسؤولية مضاعفة في الحوكمة وضمان العدالة وتجنب الانحياز.
وبناءً على ما سبق، يتضح أن الفلسفة لا تزال تشكّل الإطار المرجعي لفهم الذكاء الاصطناعي وتوجيه مساره، فهي التي تضع الأسئلة الكبرى وتمنح هذا المجال معناه الإنساني والأخلاقي. ومن ثم، فإن المستقبل يستدعي مزيدًا من التكامل بين الفلسفة والعلوم التقنية، لضمان أن يكون الذكاء الاصطناعي في خدمة الإنسان، لا تهديدًا له أو بديلاً عنه.
وهكذا يمكن توضيح أهم الأسس الفلسفية للذكاء الاصطناعي:
1- جذور فلسفية عميقة:
- فكرة الذكاء الاصطناعي ليست جديدة، بل امتداد للتساؤلات الفلسفية حول طبيعة العقل والنفس منذ أفلاطون وأرسطو.
- لفلاسفة الكلاسيكيون طرحوا أسئلة حول التفكير، الوعي، والإدراك التي ما زالت مركزية في البحث اليوم.
2- تصورات الفلاسفة الحديثين:
- ديكارت: فصل بين العقل والآلة، مع التأكيد على التفكير كخاصية مميزة للبشر.
- ليبنتز: تصور أن الآلة يمكن أن تحاكي بعض وظائف العقل، بما يمهّد لاحقًا لمحاكاة العمليات الذهنية.
- هيوم: التركيز على التجربة والادراك الحسي كأساس للمعرفة، ما يطرح تساؤلات حول قدرة الآلة على “التجربة”.
3- ربط الفلسفة بالمنطق والرياضيات:
- منطق فريجه وتارسكي يوفّر الأسس النظرية لبناء خوارزميات محاكاة التفكير.
- تورنج: تصور الآلة القادرة على تنفيذ أي عملية حسابية يمكن أن تمثل خطوة أولى نحو الذكاء الاصطناعي.
4- الأسس المعرفية والمنطقية:
- المنطق الصوري يوفر أدوات لفهم كيفية عمل الذكاء الاصطناعي.
- نظرية المعرفة تطرح سؤال إمكانية الإدراك والوعي لدى الآلة.
5- الأخلاقية والفلسفة العملية:
- حرية الإرادة والمسؤولية في سلوك الآلة.
- العدالة والانحياز في الخوارزميات وأخلاقيات الروبوتات: من يحدد القواعد الأخلاقية، الإنسان أم الآلة؟
6- الهوية الإنسانية أمام الذكاء الاصطناعي:
- تساؤل حول اختفاء الحد الفاصل بين الإنسان والآلة.
- أثر الذكاء الاصطناعي على معنى الإنسانية والعمل والحرية.
7- الفلسفة والتطبيقات العملية:
- تطبيقات الذكاء الاصطناعي في الطب والتعليم والاقتصاد لا يمكن فصلها عن أطر فلسفية وأخلاقية.
- الحوكمة الفلسفية والسياسية ضرورية لضمان استخدام التكنولوجيا بما يخدم الإنسان.
***
دكتور ابراهيم طلبه سلكها
2025
.............................
الهوامش
1- Trzęsicki, Kazimierz. “Idea of Artificial Intelligence.” Studia Humana 9, no. 3/4 (2020): 1–15, p. 38.
2- Emily Barnes and James Hutson, “A Framework for the Foundation of the Philosophy of Artificial Intelligence,” International Journal of Recent Engineering Science (IJRES) 11, no. 4 (2024): 113–126. https://doi.org/10.14445/23497157/IJRES- V11I4P114, p. 113.
3- Ibid, p. 114.
4- Youheng Zhang: A Historical Interaction between Artificial Intelligence and Philosophy, Wuhan University of Technology. [email protected], p. 1.
5- Trzęsicki, Kazimierz, Op- Cit, pp. 39–41.
6- Ibid, p. 41.
7- Ibid, pp. 41–43.
8- Müller, Vincent C. “Ethics of Artificial Intelligence and Robotics.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Fall 2020 Edition. Metaphysics Research Lab, Stanford University, 2020. https://plato.stanford.edu/entries/ethics- ai/, p. 3.
9- John McCarthy and Patrick J. Hayes: Some Philosophical Problems from the Standpoint of Artificial Intelligence, http://www- formal.stanford.edu/jmc, 1969, p. 3.
10- Varol Akman: Introduction to the Special Issue on Philosophical Foundations of Artificial Intelligence, e- mail: akman!cs.bilkent.edu.tr, p. 248.
11- Loc- Cit.
12- John McCarthy: What Has AI in Common with Philosophy?, [email protected], http://www- formal.stanford.edu/jmc, p. 241.
13- Trzęsicki, Kazimierz, Op- Cit, p. 38.
14- Poole, D., Mackworth, A., & Goebel, R. (1998). Computational Intelligence: A Logical Approach. Oxford University Press, p. 5.
15- McCarthy, J. (2007). What is Artificial Intelligence? Stanford University, p. 2.
See also: Christopher Manning: Artificial Intelligence Definitions, Stanford University, September 2020, p. 1.
16- Trzęsicki, Kazimierz, Op- Cit, p. 38.
17- Stuart J. Russell and Peter Norvig: Artificial Intelligence: A Modern Approach, Pearson Education, Third Edition, 2010, pp. vii–viii.
18- Masahiro Morioka: “Artificial Intelligence, Robots, and Philosophy,” Journal of Philosophy of Life 2023, p. 29.
19- Boden, M. A. (2016). AI: Its Nature and Future. Oxford University Press, p. 1.
20- Masahiro Morioka, Op- Cit, p. 29.
21- Merriam- Webster Dictionary. Definition of "artificial intelligence", Online version, n.p.
22- IBM. (2020). What is Artificial Intelligence? Available at: https://www.ibm.com/cloud/learn/what- is- artificial- intelligence (Accessed: 7.9.21).
23- Encyclopædia Britannica. Artificial Intelligence. 15th ed., Vol. 27, Encyclopædia Britannica Inc., 2010, p. 350.
24- Loc- Cit.
25- Cambridge Dictionary. Definition of "artificial intelligence", Online version, n.p.
See also: Cambridge Business English Dictionary. Artificial Intelligence, Cambridge University Press, 2011, p. 25.
26- The American Heritage Dictionary of the English Language. 5th ed., Houghton Mifflin Harcourt, 2018, p. 84.
27- Müller, Vincent C. “Ethics of Artificial Intelligence and Robotics.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Fall 2020 Edition. Metaphysics Research Lab, Stanford University, 2020. https://plato.stanford.edu/entries/ethics- ai/, p. 3.
28- Prashanta Kumar Patra: Lecture Notes on Artificial Intelligence, College of Engineering and Technology, Bhubaneswar, p. 3.
29- Loc- Cit.
30- Krämer, S. (1996). “Mind, Symbolism, Formalism: Is Leibniz a Precursor of Artificial Intelligence?” Knowledge Organization, 23(2), 83–87. https://doi.org/10.5771/0943- 7444- 1996- 2- 83, p. 83.
31- Kelly, Kevin. The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future. Viking, 2016, p. 4.
32- Joost N. Kok and others: Artificial Intelligence: Definition, Trends, Techniques and Case, Leiden Institute of Advanced Computer Science, Leiden University, the Netherlands, p. 1.
33- C. Lexcellent. “Artificial Intelligence.” In SpringerBriefs in Applied Sciences and Technology, 2019, p. 55.
34- Robinson, Faik. “Artificial Intelligence and its Philosophy.” International Journal of Swarm Intelligence and Evolutionary Computation, vol. 10, no. 4, 2021, pp. 1–5. ISSN: 2090- 4908, p. 1.
35- Kelly, Kevin. The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future. Viking, 2016, pp. 3–4.
36- S. Shyni Carmel Marya and others: “Connecting Human Mind with Machine Learning,” https://doi.org/10.31893/multiscience, Published Online: July 3, 2024, p. 1.
37- Plato. Phaedo. In: Plato: Complete Works, ed. J. M. Cooper, Hackett, 1997, p. 79.
38- Aristotle. De Anima. In: The Complete Works of Aristotle, ed. J. Barnes, Princeton University Press, 1984, Vol. 1, p. 656.
39- Rachel R. Adams: Aristotle on Mind, University of Central Florida, 2011, p. iii.
40- Descartes, R. Discourse on Method. Hackett, 1998, Part V, p. 42.
41- Hatfield. The Routledge Guidebook to Descartes’ Meditations. London and New York: Routledge, 2014, pp. 361–362.
42- Takahashi, Kazuyuki Ikko. “What Drives the Systems? From Conatus to Dynamics: Descartes, Hobbes, Spinoza, Leibniz, and Kant.” Meiji University. Proceedings of the 61st Conference of the International Society for the Systems Sciences (ISSS), p. 5.
43- Hatfield, Op- Cit, p. 364.
44- Youheng Zhang: A Historical Interaction between Artificial Intelligence and Philosophy, Wuhan University of Technology. [email protected], p. 1.
45- Leibniz, G. W. Monadology. In: Philosophical Essays. Hackett, 1989, p. 214.
46- Trzęsicki, Kazimierz, Op- Cit, p. 48.
47- Jonathan David Cottrell, Hume on Mental Representation and Intentionality (Wayne State University, 2018), p. 5. [email protected].
48- Ibid, p. 7.
49- Don Garrett: “Hume’s Theory of Ideas” in Hume (London: Routledge, 2014), p. 43.
50- David Hume, An Enquiry concerning Human Understanding, ed. L. A. Selby- Bigge, 2nd ed., rev. P. H. Nidditch (Oxford: Clarendon Press, 1975), p. 19.
51- Hume, D. A Treatise of Human Nature, Oxford University Press, 2000, Book I, p. 252.
52- Descartes, Meditations on First Philosophy, trans. John Cottingham, Cambridge University Press, 1996, pp. 17–19.
53- Dr. B. Ananda Sagar, Descartes’ Rationalism: A Brief Exposition, © 2019 JETIR July 2019, Volume 6, Issue 7, www.jetir.org (ISSN- 2349- 5162), pp. 689–690.
54- Loc- Cit.
55- Leibniz, New Essays on Human Understanding, trans. Peter Remnant and Jonathan Bennett, Cambridge University Press, 1996, pp. 52–55.
56- Hume, An Enquiry Concerning Human Understanding, ed. Tom L. Beauchamp, Oxford University Press, 2000, pp. 25–28.
57- Frege, G. Begriffsschrift. Halle: Verlag von Louis Nebert, 1879, pp. 1–9.
58- Green, J. J., Marcus Rossberg, and Philip A. Ebert, “The Convenience of the Typesetter; Notation and Typography in Frege’s Grundgesetze der Arithmetik,” Bulletin of Symbolic Logic 21, no. 1 (March 2015), p. 16.
59- Alfred Tarski, “The Concept of Truth in Formalized Languages,” in Logic, Semantics, Metamathematics, Oxford: Clarendon Press, 1956, pp. 152–278.
60- Tarski, A. “The Concept of Truth in Formalized Languages” (1933), in Logic, Semantics, Metamathematics, Oxford: Clarendon Press, 1956, p. 155.
61- Woleński, J. (n.d.). “The Semantic Theory of Truth,” in E. N. Zalta (Ed.), Internet Encyclopedia of Philosophy. Retrieved from https://iep.utm.edu/truth- sem
62- Youheng Zhang, Op- Cit, p. 4.
63- Turing, A. “On Computable Numbers, with an Application to the Entscheidungsproblem,” Proceedings of the London Mathematical Society, Series 2, Vol. 42 (1936): p. 241.
64- Stuart J. Russell and Peter Norvig, Op- Cit, pp. 2–3.
65- Loc- Cit.
66- Steve Reeves and Mike Clarke, Logic for Computer Science, Addison- Wesley Publishers Ltd, first published 1990, p. 5.
67- Zhang, Hantao, and Jian Zhang, Logic in Computer Science, supervised by Benji Mo, 2022, p. 2.
68- Huth, M., & Ryan, M., Logic in Computer Science: Modelling and Reasoning about Systems, 2nd Edition, Cambridge University Press, 2004, pp. 3–5.
69- Erickson, Jeff, Algorithms, Copyright © 2019 by Jeff Erickson, pp. 1–2.
70- Ibid, pp. 2–3.
71- Enderton, H. B., A Mathematical Introduction to Logic, 2nd Edition, Academic Press, 2001, pp. 91–95.
72- Mendelson, E., Introduction to Mathematical Logic, 5th Edition, Chapman & Hall/CRC, 2015, pp. 112–120.
73- Maya C. Jackson, “Artificial Intelligence & Algorithmic Bias: The Issues With Technology Reflecting History & Humans,” J. Bus. & Tech. L. 16 (2021), pp. 301–302.
74- Sterling, L., & Shapiro, E., The Art of Prolog, 2nd Edition, MIT Press, 1994, pp. 45–50.
75- Bertot, Y., & Castéran, P., Interactive Theorem Proving and Program Development: Coq’Art, Springer, 2004, pp. 15–25.
76- Mano, M. M., & Ciletti, M. D., Digital Design, 5th Edition, Pearson, 2013, pp. 30–35.
77- Erickson, Jeff, Op- Cit, p. 7.
78- Hetvi Parekh, “Intelligence of Artificial Intelligence: Philosophy,” International Journal of Creative Research Thoughts, Vol. 8, Issue 5, 2020, p. 2431.
79- Plato, Theaetetus, trans. M. J. Levett, rev. Myles Burnyeat, Hackett Publishing, 1990, pp. 201c–210d.
80- Russell, Stuart & Norvig, Peter, Artificial Intelligence: A Modern Approach, 3rd ed., Pearson, 2010, p. 25.
81- Fodor, Jerry & Pylyshyn, Zenon, “Connectionism and Cognitive Architecture: A Critical Analysis,” Cognition 28 (1988), pp. 29–30.
82- Pylyshyn, Zenon, “Computation and Cognition: Issues in the Foundations of Cognitive Science,” Behavioral and Brain Sciences 3 (1980), p. 121.
83- Parekh, Hetvi, Intelligence of Artificial Intelligence: Philosophy, OSF Preprints, September 9, 2022. https://doi.org/10.31219/osf.io/d9fe3, p. 2.
84- Shin, D., “Automating epistemology: how AI reconfigures truth, authority, and verification,” AI & Society, August 12, 2025, p. 3.
85- Burton, Anthony Glyn, et al., Algorithmic Authenticity: An Overview, Meson Press, 2023, p. 20.
86- Cathy O'Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy (New York: Crown, 2016), pp. 24–29.
87- Nicholas Carr, The Shallows: What the Internet Is Doing to Our Brains (New York: W. W. Norton, 2010), p. 118.
88- Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power (New York: PublicAffairs, 2019), pp. 352–360.
See Also:
- Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information (Cambridge, MA: Harvard University Press, 2015), pp. 55–61.,pp- 101- 103
89- Luciano Floridi, The Philosophy of Information (Oxford: Oxford University Press, 2011), pp. 76–82.
90- David Beer, "Power through the Algorithm? Participatory Web Cultures and the Technological Unconscious," New Media & Society 11, no. 6 (2010): 985–1002.
91- Shin, D., “Automating epistemology: how AI reconfigures truth, authority, and verification,” AI & Society, August 12, 2025, pp. 5–6.
92- Dodig- Crnkovic, Gordana, and Mark Burgin, eds., Philosophy and Methodology of Information: The Study of Information in a Transdisciplinary Perspective, World Scientific Series in Information Studies, vol. 10, Singapore: World Scientific, 2019, p. xi.
93- Kelly, Kevin, The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future, Viking, 2016, Abstract.
94- Kelly, K., “Artificial Intelligence and Effective Epistemology,” in Fetzer, J. H. (ed.), Acting and Reflecting, Synthese Library, Springer, 1990, pp. 115–128.
95- Ibid, pp. 5–6.
96- David K. McGraw, “Ethical Responsibility in the Design of Artificial Intelligence (AI) Systems,” International Journal on Responsibility 7, no. 1 (2024): 1.
97- Ibid, p. 3.
98- Russo, F.; Schliesser, E.; & Wagemans, J. H. M., “Connecting ethics and epistemology of AI,” AI & Society 39(4), 1585–1603 (2023), pp. 2–4.
99- Searle, J., “Minds, Brains, and Programs,” Behavioral and Brain Sciences 3(3), 1980, pp. 417–457.
100- Masahiro Morioka, “Artificial Intelligence and Contemporary Philosophy: Heidegger, Jonas, and Slime Mold,” Journal of Philosophy of Life 13, no. 1 (January 2023): 29–43, p. 31.
101- Ibid, pp. 29–30.
102- Ibid, p. 31.
103- Ibid, pp. 31–32.
104- John Searle, “The Chinese Room,” excerpted from: Minds, Brains, and Programs (1980), https://rintintin.colorado.edu/phil201 › Searle, p. 6.
See also:
Searle, John R., “Minds, Brains, and Programs,” Behavioral and Brain Sciences 3, no. 3 (1980): 417–424.pp- 6- 7
105- Loc- Cit.
106- Robinson, Faik, “Artificial Intelligence and its Philosophy,” International Journal of Swarm Intelligence and Evolutionary Computation 10, no. 4 (2021): 1–5, p. 1.
107- Delamar José Volpato Dutra & Edna Gusmão de Góes Brennand, “Intelligence and Philosophy: Between New and Old Artificial Crossroads,” Filosofia Unisinos 25, no. 1 (2024): 1–15, DOI:10.4013/fsu.2024.251.08, p. 5.
108- Youheng Zhang, “A Historical Interaction between Artificial Intelligence and Philosophy,” Wuhan University of Technology, [email protected], pp. 4–5.
109- Blum, L., & Blum, M., “A Theory of Consciousness from a Theoretical Computer Science Perspective: Insights from the Conscious Turing Machine,” ArXiv preprint, 2021, pp. 1–2.
110- Youheng Zhang, Op- Cit, p. 5.
111- Farisco, M., Evers, K., & Changeux, J.- P., “Is artificial consciousness achievable? Lessons from the human brain,” Neural Networks 180 (2024), 106714.
112- Pepperell, R., “Does Machine Understanding Require Consciousness?,” Frontiers in Systems Neuroscience 16 (2022): 1–2.
113- Machine Consciousness as Pseudoscience: The Myth of Conscious Machines, ArXiv preprint, 2024, pp. 6–7.
114- Farisco, M., Evers, K., & Changeux, J.- P. Loc- Cit.
115- Garrido- Merchán, Eduardo C. 2024. Machine Consciousness as Pseudoscience: The Myth of Conscious Machines. Preprint, Universidad Pontificia Comillas. arXiv:2405.07340, pp. 1–2.
116- Anwar, N. A., & Badea, C. Can a Machine be Conscious? Towards Universal Criteria for Machine Consciousness, ArXiv preprint, 2024, pp. 1–2.
117- Müller, Vincent C. “Ethics of Artificial Intelligence and Robotics.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Fall 2020 Edition. Metaphysics Research Lab, Stanford University, 2020. https://plato.stanford.edu/entries/ethics- ai/. p. 2.
118- VAROL AKMAN: Introduction to the Special Issue on Philosophical Foundations of Artificial Intelligence, e- mail: akman!cs.bilkent.edu.tr, p. 248.
119- Zhu Zhen. Responsibility Determination: Free Will and Legal Responsibility in the Age of Artificial Intelligence, Front. Law China, 2022, pp. 122–139.
120- Addressing Three Misconceptions. Technology and Regulation, https://doi.org/10.26116/techreg.2021, p. 35.
121- Loc- Cit.
122- Ibid, p. 37.
123- Zhu Zhen. Op- Cit, pp. 130–132.
124- Ibid, p. 132.
125- Calì, Cristiano. “The Cognitive Capacity of Free Will: A Specific Space for the Human Being Irreproducible in AI.” Journal of Ethics and Emerging Technologies 33, no. 2 (July- December 2023). DOI:10.55613/jeet.v33i2.133, p. 2.
126- Calì, Cristiano. “The Cognitive Capacity of Free Will: A Specific Space for the Human Being Irreproducible in AI.” Journal of Ethics and Emerging Technologies 33, no. 2 (July- December 2023). DOI:10.55613/jeet.v33i2.133, pp. 8–9.
127- List, Christian. “Can AI Systems Have Free Will?” Synthese 206, no. 3 (2025), p. 8.
128- Cristiano Calì. The Cognitive Capacity of Free Will: A Specific Space for the Human Being Irreproducible in AI, Journal of Ethics and Emerging Technologies, 2025, pp. 389–399.
129- ScienceDaily. Frank Martela. Commentary via ScienceDaily, May 13, 2025, p. 55.
130- Martela, Frank. “Artificial Intelligence and Free Will: Generative Agents Utilizing Large Language Models Have Functional Free Will.” AI & Ethics 5, no. 4 (2025): 4389–4400. DOI:10.1007/s43681- 025- 00740- 6, p. 42.
131- Modi, T. B. "Artificial Intelligence Ethics and Fairness: A Study to Address Bias and Fairness Issues in AI Systems, and the Ethical Implications of AI Applications", Revista Review Index Journal of Multidisciplinary, 2023, Abstract.
132- Krištofík, A. (2025, April 28). Bias in AI (Supported) Decision Making: Old Problems, New Technologies. International Journal for Court Administration, 16(1), Article 3. DOI: 10.36745/ijca.598, p. 1.
133- Ethics and Information Technology. "Policy Advice and Best Practices on Bias and Fairness in AI", 2024, pp. 33–35.
134- Ibid, pp. 40–44.
135- Krištofík, A. (2025, April 28). Bias in AI (Supported) Decision Making: Old Problems, New Technologies. International Journal for Court Administration, 16(1), Article 3. DOI: 10.36745/ijca.598, pp. 2–3.
136- Pfeiffer, J., & Gutschow, J. "Algorithmic Fairness in AI: An Interdisciplinary View", Business & Information Systems Engineering, 2023, pp. 209–222.
137- Krištofík, A. Op- Cit, pp. 3–4.
138- Ibid, pp. 7–8.
139- Ibid, pp. 12–13.
140- Anna Zink: Building Equitable Artificial Intelligence in Health Care: Addressing Current Challenges and Exploring Future Opportunities, Sarah Morriss, Anuj Gangopadhyaya, Ziad Obermeyer, Urban Institut, 2023, pp. 1–2.
141- Beyond Bias and Discrimination: Redefining the AI Ethics Principle of Fairness in Healthcare Machine- Learning Algorithms, AI & Society, 2022.
142- Anna Zink, Op- Cit, p. 3.
143- Loc- Cit.
144- Source of the question and scope: Stanford Encyclopedia of Philosophy, "Ethics of Artificial Intelligence and Robotics", 2018.
145- Masahiro Morioka: Artificial Intelligence, Robots, and Philosophy, Journal of Philosophy of Life, 2023, p. 113.
146- Ibid, pp. 113–114.
147- Loc- Cit
148- Susan Leigh Anderson: Asimov’s “Three Laws of Robotics” and Machine Metaethics, University of Connecticut, Dept. of Philosophy, Stamford, CT 06901, [email protected], Abstract.
149- Balkin, Jack M. (2017). Sidley Austin Distinguished Lecture on Big Data Law and Policy: The Three Laws of Robotics in the Age of Big Data. Ohio State Law Journal, 78(5), 1217–1241, p. 1217.
150- Susan Leigh Anderson, Op- Cit.
151- Leveringhaus, A., Developing Robots: The Need for an Ethical Framework, 2018, Sage Journals, Abstract.
152- Susan Leigh Anderson, Op- Cit.
153- Murphy, R. R., & Woods, D. D. (2009). Beyond Asimov: The Three Laws of Responsible Robotics. IEEE Intelligent Systems, 24(4), 14–20. https://doi.org/10.1109/MIS.2009.69, p. 14.
154- K. M. Tripathi and Rakesh Tiwari: Man Machine Interface: Moral and Ethical Implications, Sityog Institute of Technology, Aurangabad.
See Also:
- Rubin, C. T. (2011). Machine Morality and Human Responsibility. The New Atlantis. https://www.thenewatlantis.com/publications/machine- morality- and- human- responsibility, p. 61.
155- Principles of Robotics: Regulating Robots in the Real World, 2016, Taylor & Francis / Ethics & Information Technology, special issue, pp. –.
156- Charisi, V. et al., Towards Moral Autonomous Systems, ArXiv, 2017, p. 27.
157- Ibid, pp. 3.- 4
See Also:
- Baum, K. et al., Towards a Framework Combining Machine Ethics and Machine Explainability, ArXiv, 2019, pp. 1–2.
158- Gunkel, D. J., The Machine Question: Critical Perspectives on AI, Robots, and Ethics, MIT Press, 2012, pp. 1–270.
159- Müller, Vincent C. “Ethics of Artificial Intelligence and Robotics.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Fall 2020 Edition. Metaphysics Research Lab, Stanford University, 2020. https://plato.stanford.edu/entries/ethics- ai/, p. 6.
160- Ibid, p. 7.
161- Loc- Cit.
162- Ibid, p. 8.
163- Ibid, pp. 10–11.
164- Ibid, p. 12.
165- Magnani, L., Li, P., & Park, W. (Eds.). (2015). Philosophy and Cognitive Science II: Western & Eastern Studies (Studies in Applied Philosophy, Epistemology and Rational Ethics, Vol. 20). Cham: Springer. https://doi.org/10.1007/978- 3- 319- 18479- 1, p. 3.
166- Ibid, p. 8.
167- Alan Turing, “Computing Machinery and Intelligence,” Mind, vol. 59, no. 236 (October 1950), p. 433.
168- John Searle, “Minds, Brains, and Programs,” Behavioral and Brain Sciences, vol. 3, no. 3 (1980), p. 422.
169- Martha Nussbaum, Upheavals of Thought: The Intelligence of Emotions, Cambridge University Press, 2001, p. 45.
170- Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2014, p. 203.
171- Gamez, D. Machine Consciousness, in: Human and Machine Consciousness, Open Book Publishers, 2018, pp. 135–148.
172- Blum, L., & Blum, M. A Theory of Consciousness from a Theoretical Computer Science Perspective: Insights from the Conscious Turing Machine, ArXiv preprint, 2021, pp. 1–2.
173- Ulhaq, Anwaar. Neuromorphic Correlates of Artificial Consciousness, ArXiv preprint, May 3, 2024.
174- The Feasibility of Artificial Consciousness through the Lens of Neuroscience, Trends in Neurosciences, Vol. 46, Issue 12, December 2023, pp. 1008–1017.
175- Nick Bostrom, Op- Cit, pp. 3–5.
176- Erik Brynjolfsson & Andrew McAfee, The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies, W. W. Norton & Company, 2014, pp. 90–94.
177- Christian List: Can AI Systems Have Free Will? First version: November 2024 / this version: March 2025, p. 1.
178- Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, PublicAffairs, 2019, pp. 8–11.
179- Luciano Floridi, The Ethics of Artificial Intelligence, in: The Oxford Handbook of Ethics of AI, Oxford University Press, 2020, pp. 9–12.
180- Floridi, L. et al. (2018). AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines 28: 689–707, pp. 6–7.
181- High- Level Expert Group on Artificial Intelligence (2019). Ethics Guidelines for Trustworthy AI. European Commission, Brussels. Available at: https://ec.europa.eu/futurium/en/ai- alliance- consultation.
182- World Health Organization (2021). Ethics and Governance of Artificial Intelligence for Health: WHO Guidance. Geneva: World Health Organization. ISBN: 978- 92- 4- 002920- 0.
183- UNESCO (2023). Guidance for Generative AI in Education and Research. Paris: UNESCO. Available at: https://unesdoc.unesco.org/ark:/48223/pf0000386693.
184- Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models. OpenAI Working Paper. arXiv:2304.02675.
185- Cath, C. (2018). Governing Artificial Intelligence: Ethical, Legal and Technical Opportunities and Challenges. Philosophical Transactions of the Royal Society A, 376(2133), 20180080. https://doi.org/10.1098/rsta.2018.0080.
186- European Commission (2021). Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act). Brussels: European Commission, pp. 1–30.
187- UNESCO (2021). Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO Publishing.
188- Roberts, H., Cowls, J., Morley, J., Taddeo, M., Wang, V., & Floridi, L. (2021). The Chinese Approach to Artificial Intelligence: An Analysis of Policy, Ethics, and Regulation. AI & Society, 36, 59–77.
189- Ananny, M., & Crawford, K. (2018). Seeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability. New Media & Society, 20(3), 973–989.
190- Nick Bostrom, Superintelligence: Paths, Dangers, Strategies (Oxford: Oxford University Press, 2014), pp. 115–120.
191- Max Tegmark, Life 3.0: Being Human in the Age of Artificial Intelligence (New York: Alfred A. Knopf, 2017), pp. 50–65.
192- Shoshana Zuboff, The Age of Surveillance Capitalism (London: Profile Books, 2019), pp. 193–360.
193- Luciano Floridi and Josh Cowls, “A Unified Framework of Five Principles for AI in Society,” Philosophy & Technology 33, no. 1 (2020): pp. 9–12.
See Also:
World Economic Forum, The Future of Jobs Report 2023 (Geneva: WEF, 2023), pp. 27–33.