قضايا
حمزة مولخنيف: بين خوارزمية الواجب وارتعاش الضمير
في مصير القرار الأخلاقي داخل عصر الذكاء الاصطناعي
في عصر تحكمه السرعة المعلوماتية، لم يعد الذكاء الاصطناعي مجرد أداة لحساب أو معالجة البيانات، بل صار شريكا فاعلا يتدخل تدريجيا في مجالات لم تعد حكراً على العقل البشري وحده. القرارات التي كان الإنسان يتخذها بناءً على خبرة وحدس ووعي أخلاقي، بدأت تتقاسم مجالها مع خوارزميات قادرة على التعلم والتنبؤ وضبط السلوك. وهنا يظهر الإشكال الأكثر جوهرية: الذكاء الاصطناعي ليس مجرد وسيلة للحساب، بل أداة قد تُعيد تشكيل الفضاء الرمادي الذي قد نسميه تاريخيا بالضمير، فتطرح مسألة جوهرية: هل ستصبح القرارات الأخلاقية تلقائية، أم ستظل خاضعة للإنسان؟ .
يُفتتح سؤال الذكاء الاصطناعي اليوم لا بوصفه سؤالا تقنيا، بل بوصفه سؤالا أنطولوجيا وأخلاقيا في آن، لأنه لا يطرق أبواب الأدوات فقط، بل أبواب الذات. حين تُسلَّم بعض دوائر القرار إلى خوارزميات متعلّمة، فإن ما يُستدعى ضمنيا ليس مجرد القدرة على الحساب، بل قدرة هذه الآلات على محاكاة ما كان يُعتبر فضاءً أخلاقيا للبشر وهو الضمير. وقد أشار كانط إلى أن الإنسان هو الكائن الوحيد الذي يجب أن يُعامَل دائما كغاية لا كوسيلة، بينما منطق الخوارزميات لا يعرف الغايات إلا بوصفها نواتج محسوبة لمتغيرات، ولا يرى في الإنسان إلا مدخلاً ضمن مصفوفة احتمالات. وهنا بالضبط يولد التوتر العميق: هل يمكن أن تُستبدل تلك الهشاشة الأخلاقية، التي تجعل الإنسان يتردّد ويتألّم ويشعر بالذنب، بنظام صوري لا يعرف سوى الترجيح والحساب؟.
الوعي الإنساني في جوهره ليس جهازا لاتخاذ القرار فقط، بل تجربة للوجود. ما يجعل قرارا أخلاقيا هو ليس نتيجته الخارجية فحسب، بل الطريقة التي يمرّ بها عبر الذات، عبر ما سمّاه هايدغر “الانشغال القَلِق بالوجود”، حيث يكون الفعل محمّلاً بقلق الإمكان والخطأ والمسؤولية. أما الخوارزمية مهما بلغت من التعقيد، فهي بلا قلق وبلا شعور بالخسارة وبلا خوف من أن تكون قد خانت ذاتها. إنها تحسب لكن لا “تتعرّض” للنتيجة. وقد أدرك فيتغنشتاين في عبارته الشهيرة، أن “حدود لغتي هي حدود عالمي”، فإذا كانت لغة الخوارزمية هي الرياضيات والاحتمالات، فإن عالمها الأخلاقي لا يمكن أن يتجاوز ما يُشفَّر في هذه اللغة، أي ما يمكن قياسه وترجيحه أو تحسينه. أما ما لا يُقاس — الألم، الإهانة، الكرامة، الذنب — فهو خارج أفقها البنيوي.
يُشاع كثيرا أن الخوارزميات يمكن تزويدها بقيم أخلاقية، غير أن هذا الادعاء يقوم على افتراض مضمر مفاده أن الأخلاق ليست سوى مجموعة من القواعد. والحال أن أرسطو منذ قرون بيّن أن الفضيلة ليست قانونا يُطبَّق، بل هيئة راسخة في النفس تتكوّن عبر الممارسة والتجربة والاختيار. فالمرء لا يصير عادلا لأنه يحفظ تعريف العدالة، بل لأنه يمارسها في أوضاع ملتبسة ومتعارضة، حيث تحتاج إلى ما سماه أرسطو الحكمة العملية (phronēsis): قدرة على تقدير ما ينبغي فعله في وضع خاص لا يتكرر. وهذه الحكمة هي بالضبط ما يستعصي على الآلة، لأنها ليست تطبيق قاعدة على حالة، بل موازنة حيّة بين قيم متعارضة داخل سياق إنساني فريد. فعندما تقف طبيبة أمام مريض يحتضر، لا يكون قرارها مجرد تنفيذ بروتوكول، بل قراءة عميقة لوضع لا يُختزل في بيانات، نظرة في العين ورجفة في الصوت وتاريخ حياة كامل. الخوارزمية ترى مؤشرات؛ الإنسان يرى معنى، ويرى قصة.
غير أن العالم في انبهاره بالقوة التنبؤية للذكاء الاصطناعي، يميل إلى تحويل هذه القصص إلى سلاسل من المتغيرات. وهنا يظهر خطر أخلاقي جديد، ليس أن الآلة ستتخذ قرارات سيئة بالضرورة، بل أن معيار “الجيد” نفسه سيُعاد تعريفه وفق منطق التحسين والكفاءة. ما هو القرار الأخلاقي الأمثل؟ في لغة الخوارزميات، هو ذلك الذي يقلل الخسائر أو يزيد المنافع وفق نموذج مُسبق. لكن جون ستيوارت ميل حين دافع عن المنفعة، كان يفعل ذلك داخل أفق إنساني يعترف بالكيفيات لا بالكميات فقط. أما الخوارزمية فتميل إلى تسطيح الكيف إلى كمّ وإلى تحويل الكرامة إلى وزن رقمي. يصبح الخطر وجوديا، أن نعتاد نحن البشر على النظر إلى أنفسنا كما تنظر إلينا الآلات.
أشارت حنة أرندت، في تأملها حول “تفاهة الشر”، إلى إن أخطر ما في الأنظمة الشمولية ليس الكراهية، بل غياب التفكير. الشر يمكن أن يصبح تلقائيا حين يُختزل الفعل إلى إجراء. وفي هذا المعنى لا يختلف نظام بيروقراطي صلد عن خوارزمية ذكية؛ كلاهما ينفّذ دون أن “يسأل”. الفرق أن البيروقراطي يمكن أن يشعر بالذنب ويمكن أن ينهار وأن يعصي. أما الخوارزمية فلا تعصي لأنها لا تستطيع أن تقول “لا” بمعنى أخلاقي. إن تلقائية القرار هي بالضبط ما يجعل الخطر أخلاقيا، حين يتحول الفعل إلى ناتج، والمسؤولية إلى أثر جانبي.
ومع ذلك، لا يمكن الاكتفاء بنقد رومانسي للتكنولوجيا. فالذكاء الاصطناعي يكشف شيئا حقيقيا عن هشاشتنا نحن. إذا كنا نخشى أن تُسلَب منا قراراتنا الأخلاقية، فذلك لأن كثيرا منها كان في العمق آليا حتى قبل الآلة. لقد أشار فوكو إلى أن السلطة الحديثة لا تعمل عبر القمع فقط، بل عبر “تطبيع” السلوك، وعبر جعل ما هو تاريخي يبدو طبيعيا. الخوارزميات اليوم هي ذروة هذا التطبيع، إنها تجعل أنماط السلوك المتكررة تبدو كأنها “أفضل” الخيارات الممكنة. وحين نوافق عليها، فإننا لا نخضع لقوة خارجية، بل ننسجم مع صورة إحصائية عن أنفسنا. وهنا يتحول السؤال من: هل ستتخذ الآلة قرارات أخلاقية؟ إلى: هل ما نعتبره نحن قرارات أخلاقية ليس في كثير من الأحيان سوى استجابات مبرمجة اجتماعيا؟.
الوعي الإنساني إذاً، ليس ضمانة تلقائية للأخلاق. هو ساحة صراع بين العادة والحرية. لكن ما يجعل هذا الوعي أخلاقيا، في عمقه هو قدرته على الانقطاع عن نفسه، على أن يقول: “كان يمكنني أن أفعل غير ما فعلت”. هذا الندم ;هذا الشرخ في الهوية، هو ما يعطي للفعل وزنه الأخلاقي. الآلة لا تندم ولا تحمل ذاكرة ذنب. كل قرار لها هو في لحظة تنفيذه يكون الأمثل حسابيا. أما الإنسان فيعيش مع قراراته ويراجعها ويعيد تأويلها، وربما يغيّر حياته بسببها. وهذه الزمنية الأخلاقية — أن يكون القرار حدثا لا عملية — هي ما لا يمكن أتمتته.
لقد حلم ديكارت بآلة تفكر، لكن حتى هو اعترف بأن ما يميّز الفكر ليس الحساب بل الوعي بالذات. وفي هذا الوعي تكمن الأخلاق. حين أقول “أنا”، فإنني أتحمل. وحين تتحمل، فإنك تكون معرضا للخطأ وللذنب وللمساءلة. الخوارزمية لا تقول “أنا”، بل “المدخلات أعطت هذه المخرجات”. إنها بلا وجه وبلا صوت وبلا قابلية لأن تُلام. ولذلك فإن إسناد قرارات أخلاقية إليها ليس فقط خطرا عمليا، بل تفريغ لفكرة المسؤولية من معناها.
غير أن العالم يتجه ببطء ولكن بثبات، نحو مناطق رمادية حيث يصبح القرار موزعا بين إنسان وآلة. في هذه المناطق سيغدو السؤال الأخلاقي أكثر تعقيدا: من المسؤول عن خطأ سيارة ذاتية القيادة؟ المبرمج؟ الشركة؟ المستخدم؟ الخوارزمية؟ هذا التشظي في المسؤولية قد يؤدي إلى ما حذّر منه ليفيناس حين قال إن الأخلاق تبدأ من “وجه الآخر” الذي يطالبني. حين يختفي الوجه خلف شاشة وخوارزمية، يتلاشى هذا النداء المباشر. لا أحد يشعر بأنه هو المعني. وهنا يصبح الشر مرة أخرى ممكنا بلا فاعل واضح.
ليست المشكلة أن الآلة ستصبح “أخلاقية”، بل أن الإنسان قد يتنازل عن أخلاقيته بحجة الكفاءة. كل مرة نقبل فيها قرارا آليا لأنه “أدق” أو “أسرع”، نتخلى قليلا عن حقنا في الخطأ، وفي هذا الحق تكمن إنسانيتنا. فالحرية كما قال سارتر، ليست أن نختار دائما الصواب، بل أن نكون مسؤولين عن اختياراتنا حتى حين تكون خاطئة. الخوارزمية حين تصيب لا تستحق المدح، وحين تخطئ لا تشعر بالعار. إنها خارج مجال الفضيلة والرذيلة.
وهكذا يتكشف أن الصراع الحقيقي ليس بين الإنسان والآلة، بل بين نمطين من العقل: عقل يحسب، وعقل يتحمّل. الأول يسعى إلى الأمثلية، الثاني يعيش التراجيديا. وبينهما يتحدد مستقبل الأخلاق في عصر الذكاء الاصطناعي. هل سنعيد تعريف الخير بوصفه ما تحسنه الخوارزميات؟ أم سنحافظ على ذلك الفائض غير القابل للاختزال الذي يجعل من كل قرار أخلاقي مخاطرة وجودية؟ هذا السؤال في جوهره ليس تقنيا، بل هو سؤال عن أي نوع من الكائنات نريد أن نكونه ونحن نشارك العالم مع آلات لا تعرف ماذا يعني أن تشعر بثقل الاختيار.
يتواصل هذا التأمل حين ندرك أن المسألة لا تنحصر في ما إذا كانت الآلة “تفهم” الأخلاق، بل في الكيفية التي سيُعاد بها تشكيل وعينا نحن بالأخلاق تحت ضغط وجودها. فالتكنولوجيا كما نبّه مارشال ماكلوهان، ليست مجرد أدوات نستخدمها، بل هي بيئات تُعيد تشكيل حواسنا ولغتنا وصورنا عن أنفسنا. حين نعيش داخل بيئة خوارزمية تقترح علينا ما نقرأ، من نحب وكيف نتحرك، بل وحتى ما نعتبره خطرا أو أمانا، إن وعينا الأخلاقي نفسه يُعاد ضبطه. ما كان في الماضي ثمرة تردّد وتأمل يتحول شيئا فشيئا إلى استجابة لاقتراح آليّ مُقنع إحصائيا. وهنا يتسلل أخطر تحول: أن نستبدل السؤال “ماذا ينبغي أن أفعل؟” بالسؤال “ما هو الخيار الذي يُوصى به؟”.
في هذا الانتقال من “الينبغي” إلى “الموصى به” يضيع البعد المعياري للأخلاق. كانط لم يبنِ فلسفته على ما يفعله الناس عادة، بل على ما يجب أن يفعلوه حتى لو خالف ذلك ميولهم ومصالحهم. الواجب في هذا المعنى هو فعل مقاومة داخلية، تمرّد على ما هو سهل ومتاح. أما الخوارزمية فمهمتها الأساسية هي جعل ما هو “أنسب” هو ما يُختار دون توتر ودون مقاومة. إنها اقتصاد للرغبة، وليست تربية للإرادة. ومع الزمن قد نجد أنفسنا نخلط بين الاثنين، فنعتبر أن ما يُعرض علينا بوصفه الأمثل هو ما يجب علينا أخلاقيا.
لكن الأخلاق في جوهرها، ليست تحسينا للاختيارات، بل انفتاحا على إمكان التضحية. حين يتخلى شخص عن مصلحة واضحة من أجل آخر، فإن هذا الفعل لا يمكن تبريره خوارزميا إلا بوصفه “خسارة”. غير أن هذه الخسارة هي ما يعطي للإنسان قيمته. ليفيناس رأى في الاستجابة لنداء الآخر نوعا من “اللامعقولية” الأخلاقية: أنا مسؤول عنك حتى لو لم يكن ذلك مفيدا لي. هذا اللا-نفع هو قلب الأخلاق. أما الخوارزمية فلا تعرف إلا النفع الموزون، حتى حين تُبرمج على “الإيثار”، فهي تحوله إلى معادلة. إنها تحاكي التضحية دون أن تعيشها.
ومع ذلك فإن السؤال لا يمكن أن يُختزل في رفض التكنولوجيا، لأننا نعيش داخلها كما تعيش السمكة في الماء. ما يتطلبه الأمر هو إعادة تأسيس لفكرة المسؤولية في زمن الذكاء الاصطناعي. إذا كانت القرارات تُتخذ اليوم عبر شبكات معقدة من البشر والآلات، فإن الأخلاق يجب أن تنتقل من نموذج الفاعل الفرد إلى نموذج البنية المشتركة. لكن هذا الانتقال يحمل خطرا مزدوجا، إما أن نضيع المسؤولية في ضباب التوزيع، أو أن نُسقطها على الآلة بوصفها “الفاعل” الجديد. كلاهما تهرّب من الحقيقة الأساسية وهي أن البشر هم من يصممون ويضبطون، ويطلقون هذه الأنظمة.
نبه هايدغر إلى أن جوهر التقنية ليس تقنيا، بل هو نمط من الكشف، طريقة يظهر بها العالم لنا. ففي عصر الذكاء الاصطناعي، يظهر العالم بوصفه مخزونا من البيانات القابلة للاستخراج والتحسين. يظهر الإنسان نفسه بوصفه نمطا سلوكيا يمكن التنبؤ به. هذا الانكشاف حين يُترك بلا مقاومة فلسفية، قد يقود إلى تآكل فكرة الحرية. فإذا كان ما سأفعله غدا يمكن توقعه اليوم بنسبة عالية، فما معنى أن أكون مسؤولا عنه؟ هنا يتقاطع التنبؤ مع القدر، وتتحول الإحصاءات إلى نبوءات ذاتية التحقق. الأخلاق هنا تصير محاولة مستمرة لكسر ما يبدو محتوما.
ولعل ما يجعل الإنسان غير قابل للاختزال هو تلك القدرة على خيانة توقعات نفسه. أن يفعل ما لم يكن في “بياناته السابقة”. هذه القدرة على الانحراف وعلى المفاجأة، هي جوهر الحرية. الخوارزمية مهما تعلمت، تبقى أسيرة ماضيها المرمز. إنها تتوقع المستقبل انطلاقا من الأمس. أما الإنسان فيستطيع في لحظة قرار أن يقطع مع تاريخه. أن يتوب وأن يغيّر وأن يختار على نحو لا يمكن استنتاجه إحصائيا. هذه القطيعة هي ما يجعل الأخلاق ممكنة، لأنها تجعل الشر والخير ليسا استمرارا آليا، بل انبثاقا جديدا.
غير أن هذه الحرية مهددة حين نتعود على تسليم قراراتنا الدقيقة للأنظمة الذكية. ليس لأن هذه الأنظمة شريرة، بل لأنها مريحة. إنها تعفينا من عناء التفكير ومن ثقل الشك. لكن كما لاحظ نيتشه، فإن أعظم خطر على الإنسان ليس الألم، بل الراحة. الراحة التي تجعلنا نرضى بما هو معطى وبما هو مقترح، وبما هو “أفضل حسب الخوارزمية”. وفي هذا الرضا الهادئ، قد نفقد تدريجيا القدرة على الاحتجاج الأخلاقي، وعلى القول، هذا ناجع لكنه غير عادل، هذا مربح لكنه مهين.
ولا يعود السؤال: هل ستتخذ الآلات قرارات أخلاقية؟ بل: هل سنبقى نحن قادرين على اتخاذ قرارات غير قابلة للاختزال إلى حساب؟ هذا هو الامتحان الحقيقي للوعي الإنساني في عصر الذكاء الاصطناعي. فإذا كان الوعي هو كما قال هيغل وعيا بالحرية، فإن أي نظام يُضعف هذه الحرية يُضعف الوعي ذاته. قد تصبح الآلات أذكى وأسرع وأدق، لكن ما لا تستطيع امتلاكه هو تلك اللحظة التي يقف فيها الإنسان أمام نفسه ويقول: كان يمكنني أن أفعل غير هذا، وأنا مسؤول عما فعلت.
إن الأخلاق ليست خاصية يمكن إضافتها إلى نظام، بل علاقة متوترة بين ذات وعالم. إنها ما يحدث حين يلتقي الداخل بالخارج في لحظة مخاطرة. ولهذا لا يمكن أن تكون تلقائية حقا، لأن التلقائية نفي للمخاطرة. كلما صارت القرارات أكثر تلقائية، صارت أقل أخلاقية، ومهما كانت نتائجها “جيدة”. فالخير الذي لا يمر عبر الحرية هو مجرد نجاح وظيفي، لا فضيلة.
وفي أفق عالم تحكمه الخوارزميات، تصبح مهمة الفلسفة ليست مقاومة الآلة، بل حماية تلك المسافة الهشة التي تفصل بين ما هو محسوب وما هو مسؤول. أن نُبقي على مكان للارتباك، للشك، للندم وللجرأة على الخطأ. لأن في هذه المنطقة غير المريحة يسكن ما يجعلنا بشرا. وربما يكون أعظم تحدٍّ أخلاقي في زمن الذكاء الاصطناعي هو أن نجرؤ على أن نظل غير قابلين للتحسين الكامل.
ولا يبدو المستقبل صراعا بين إنسان وآلة، بل اختبارا للقدرة على العيش مع آلات دون التحول إلى آلات. أن نستخدم الخوارزميات دون أن نستعير منها صورتها عن العالم. أن نحتفظ بذلك الفائض الغامض الذي لا يُشفَّر ولا يُقاس ولا يُتوقع، الضمير وهو يرتعش أمام قرار يعلم أنه سيترك أثرا لا يمكن محوه.
هنا في هذا الارتعاش يتجدد معنى الأخلاق، لا بوصفها نظاما من القواعد، بل بوصفها شجاعة الوجود في عالم لم يعد يضمن لنا أن نكون أكثر من بيانات، إلا إذا أصررنا نحن على أن نكون أكثر.
***
د. حمزة مولخنيف






