|
القاهرة 12 مايو 2026 الساعة 02:32 م

د. هويدا صالح
في عصرٍ يتسارع فيه حضورُ الذكاء الاصطناعي حتى يكاد يستولي على مفاصل الحياة كافة، يطرح الفيلسوف النمساوي مارك كوكلبيرج أسئلة لا تحتمل التأجيل: ما الذي نصنعه على وجه الدقة؟ الذكاء الاصطناعي أداة نُحسن توجيهها، أم كائن قد يتجاوزنا يومًا؟ وهل تقف مسؤوليتنا عند حدود الشيفرة، أم تمتد إلى ما يتولد عنها من آثار تتغلغل في الاجتماع والاقتصاد والوعي؟ كل هذه الأسئلة طرحها في كتابه " أخلاقيات الذكاء الاصطناعي" الذي صدر (2024) عن عن مؤسسة"هنداوي" بترجمة هبة عبد العزيز غانم ومراجعة هبة عبد المولي أحمد. الكتاب لا يُقدِّم دليلًا تقنيًا باردًا، ولا يرسم خريطةً سياسيةً جاهزة، بقدر ما يفتح أفقًا للتفكير الصادق في مستقبلٍ نحن جميعًا شركاء في تشكيل ملامحه.
الكاتب يلفت النظر إلى أن الذكاء الاصطناعي لم يعد حكرًا على ساحات الاستعراض أو خيال السينما، بل أصبح متغلغلًا في تفاصيل الحياة اليومية، غالبًا دون أن نلحظه: في محركات البحث، والإعلانات الموجَّهة، وأنظمة التنبؤ القضائي، وتقنيات التعرف على الوجوه، وآليات منح القروض، وقرارات التوظيف. هذا الحضور الخفي هو ما يجعل السؤال الأخلاقي ملحًّا، لا ترفًا نظريًا.
ومن ثم تتوالى الأسئلة التي تبدو يسيرة في ظاهرها، عسيرة في جوهرها: هل ينبغي تضمين قيود أخلاقية في السيارات ذاتية القيادة؟ من يتحمل المسؤولية حين تُخطئ الخوارزميات؟ هل نرضى أن تفصل الأنظمة الآلية في مصائر البشر داخل المحاكم؟ ومن يجني ثمار هذا التحول، ومن يدفع كلفته؟
إن أخلاقيات الذكاء الاصطناعي، كما يبين كوكلبيرج، ليست شأنًا تقنيًا فحسب، بل هي شأنٌ اجتماعي واقتصادي يعيد تشكيل بنية العالم.
ويفرد الكاتب حيّزًا مهمًا لمناقشة المخاوف المرتبطة بما يُعرف بـ«الذكاء الفائق»، تلك الفكرة التي روّج لها مفكرون من أمثال نيك بوستروم وإيلون ماسك وستيفن هوكينغ. غير أن كوكلبيرج يذكّر بأن هذه المخاوف ليست وليدة اللحظة، بل تمتد جذورها في المخيال الغربي من أسطورة «الجولِيم» إلى رواية فرانكنشتاين، وصولًا إلى سينما الخيال العلمي. ويسمي هذه البنية التخيلية «عقدة فرانكنشتاين»: الخوف من مخلوقٍ يتمرّد على صانعه.
في قلب هذا النقاش، يطرح الكتاب سؤالًا فلسفيًا عميقًا: هل يمكن للآلة أن تمتلك ذكاءً حقيقيًا؟ هنا يستعرض الكاتب مواقف متباينة. فمن جهة، يشكك هيوبرت درايفوس، مستندًا إلى مارتن هايدغر، في إمكان اختزال الخبرة الإنسانية إلى قواعد؛ فالإنسان، في نظره، كائن متجسد في العالم، يمتلك معرفة ضمنية لا تُختزل في بيانات. ومن جهة أخرى، يقدم جون سيرل تجربته الشهيرة "الغرفة الصينية"، ليؤكد أن إنتاج إجابات صحيحة لا يعني فهمًا حقيقيًا، إذ يظل المعنى شأنًا إنسانيًا.
في المقابل، يدافع فلاسفة كـدانيال دينيت وبول تشيرشلاند عن رؤية مادية ترى الإنسان نفسه نظامًا معقدًا من العمليات، ما يفتح الباب نظريًا أمام إمكان محاكاة الذكاء بشبكات اصطناعية.
غير أن كوكلبيرج يتجاوز هذا الاستقطاب ليطرح أفق "ما بعد الإنسانية"، حيث لا تكون العلاقة بين الإنسان والتقنية علاقة صراع، بل شراكة. فالإنسان، في جوهره، كائن تقني؛ والتقنيات امتدادٌ لوجوده لا نقيضٌ له. ومن ثم، يمكن للذكاء الاصطناعي أن يفتح أشكالًا جديدة من الذكاء، دون أن يُقاس دائمًا على النموذج البشري.
وتبلغ الأسئلة ذروتها حين يناقش الكاتب "المكانة الأخلاقية" للذكاء الاصطناعي. فهل يمكن اعتباره فاعلًا أخلاقيًا؟ جزئيًا نعم، حين يُبرمج لاتخاذ قرارات ذات تبعات أخلاقية، كما في السيارات ذاتية القيادة التي قد تواجه مواقف تُحاكي "معضلة العربة". لكن هل يستحق، في المقابل، أن يُعامَل بوصفه كيانًا ذا قيمة أخلاقية؟
تشير تجارب عديدة إلى أن البشر يميلون إلى التردد في إيذاء الروبوتات، حتى وهم يعلمون أنها مجرد آلات. ومن هنا يستحضر الكاتب صدى الفلسفة الكانطية: قد لا يكون الخطأ في إيذاء الآلة لأنها تتأذى، بل لأن ذلك يُنمّي فينا قابلية القسوة، التي قد تنعكس لاحقًا على تعاملاتنا مع البشر.
بعد هذا التحليق في الأسئلة الفلسفية، يهبط مارك كوكلبيرج إلى أرض التكنولوجيا الصلبة، حيث تتبدّى القضايا في صورتها العملية المباشرة. يبدأ بتمييزٍ حاسم بين نمطين من الذكاء الاصطناعي: "الضعيف" أو المحدود،وهو القائم اليوم، حيث تُصمَّم الأنظمة لأداء مهام بعينها، و"القوي" أو العام، ذلك الأفق الذي يتخيله المستقبليون بوصفه ذكاءً مكافئًا للإنسان في شموليته. ومن ثمّ، يلفت إلى أن الانشغال الأخلاقي ينبغي أن ينصرف إلى الأول، لأنه واقعٌ مُعاش لا فرضية مؤجلة.
ويمضي إلى تفصيل البنية التقنية لهذه الأنظمة، متتبعًا انتقالها من "الأنظمة الخبيرة" القائمة على قواعد صريحة من نمط «إذا… إذن…» إلى الشبكات العصبية الاصطناعية وتعلّم الآلة العميق. وما يمنح هذه الأخيرة طابعها الثوري أنها لا تعتمد على قواعد مُبرمجة سلفًا، بل تستنبط الأنماط ذاتيًا من البيانات. غير أن هذا التفوق ذاته يُفضي إلى معضلةٍ معرفية: تحوّل هذه الأنظمة إلى "صناديق سوداء"، بحيث يعجز حتى مطوّروها عن تفسير بعض قراراتها.
وفي هذا السياق، يستعرض الكاتب طيفًا واسعًا من تطبيقات الذكاء الاصطناعي في العالم المعاصر: في الرعاية الصحية، حيث تُسهم الخوارزميات في تشخيص الأمراض وتحليل صور الأشعة وصياغة خطط العلاج؛ وفي القضاء والشرطة، عبر أنظمة التنبؤ بالجريمة وتقدير احتمالات العود إليها؛ وفي مجالات التوظيف والائتمان، حيث تُفرز السير الذاتية وتُقيَّم طلبات القروض؛ وفي الإعلام والسياسة، عبر الإعلانات الموجّهة وأدوات التأثير الرقمي؛ وفي ميادين الدفاع، مع بروز الأسلحة ذاتية التشغيل؛ فضلًا عن التعليم والترفيه، حيث تعمل أنظمة التوصية على تشكيل أذواق المستخدمين وتفضيلاتهم.
غير أن النقطة الأكثر عمقًا في هذا العرض تكمن في تأكيد أن الذكاء الاصطناعي ليس تقنيةً معزولة، بل هو دائمًا جزءٌ من منظومة اجتماعية-تقنية أوسع. وعليه، فإن معالجة مشكلاته لا تختزل في إصلاح الشيفرة، إذ قد يكمن الخلل في طبيعة البيانات، أو في تصميم النظام، أو في السياسات التي تؤطر استخدامه.
يبلغ الكتاب ذروة إلحاحه حين يناقش مسألة التحيّز. فإذا ما دُرِّبت الخوارزميات على بيانات تاريخية مشبعة بأنماط من الظلم الاجتماعي، فإنها لن تُنتج عدالةً جديدة، بل ستعيد إنتاج ذلك الظلم وتمنحه مسحةً من الموضوعية الزائفة. ويقدّم الكاتب مثالًا صارخًا في نظام COMPAS المستخدم في القضاء الأمريكي، والذي أظهر انحيازًا إحصائيًا ضد فئات بعينها في توقع العودة إلى الجريمة.
ولا يقتصر التحيّز على هذه الحالات الفجّة، بل يتسلل في صورٍ أكثر خفاءً: في أنظمة التعرف على الوجوه التي تقلّ دقتها مع الوجوه الأفريقية، وفي نماذج التعرف على الكلام التي تتعثر مع لهجات محددة، وفي خوارزميات التوظيف التي تُعيد إنتاج الهيمنة الذكورية انطلاقًا من بيانات سوق العمل السابقة.
وهنا يوسّع كوكلبيرج دائرة النقاش إلى "علم البيانات" ذاته، مبيّنًا أن البيانات ليست محايدة قط؛ فالقرارات المتعلقة بما يُجمع منها، وكيف يُوسم، وما يُعدّ هدفًا للتحليل، هي قرارات بشرية مشبعة بالقيم والتصورات المسبقة. ومن ثم، فإن الذكاء الاصطناعي لا يكتشف «حقيقة» موضوعية بقدر ما يُضخّم ما يُغذّى به.
الخصوصية والمسؤولية والشفافية:
يناقش الكتاب ثلاث قضايا كبرى تتعلق بالخصوصية وهي:
ـ الخصوصية: الجسد الرقمي للإنسان: يبيّن الكاتب أن تقنيات مثل التعرف على الوجوه وتحليل البيانات الضخمة تُحدث تحولًا جذريًا في مفهوم الخصوصية. فما كان يتطلب جهدًا بشريًا هائلًا يمكن اليوم إنجازه في لحظات، بل إن هذه الأنظمة لا تكتفي بتحديد الهوية، بل تمتد إلى تحليل المزاج والتنبؤ ببعض السمات الشخصية—كل ذلك دون علم الأفراد أو موافقتهم.
ـ المسؤولية: فجوة المساءلة: حين تتسبب منظومة ذكية في ضرر—كحادث سيارة ذاتية القيادة—يتعقد سؤال المسؤولية إلى حدٍّ قد يفضي إلى ما يسميه الكاتب "فجوة المساءلة": توزيع معقّد للأدوار بين المصممين والمبرمجين والشركات والمستخدمين، بحيث لا يُحاسَب أحد على نحو واضح.
ـ الشفافية: حق المعرفة: تتعالى الدعوات إلى جعل الأنظمة الخوارزمية قابلة للتفسير، فيما يُعرف بـ«الذكاء الاصطناعي القابل للتفسير». غير أن كوكلبيرج ينبه إلى مفارقة دقيقة: أكثر النماذج دقةً هي غالبًا الأكثر غموضًا. ومن ثم، لا يكمن الحل في شفافية مطلقة ولا في تعتيم كامل، بل في مقاربات توازنية تتيح قدرًا معقولًا من الفهم والمساءلة دون التضحية بالكفاءة.
ثم ينتقل الكتاب هنا إلى الحقل السياسي، حيث تتحدد ملامح الحوكمة. وبحكم خبرة كوكلبيرج ضمن المفوضية الأوروبية، فإنه يعرض المبادئ التي تشكّل أساس النقاش الدولي حول تنظيم الذكاء الاصطناعي، ومنها: الشفافية، والعدالة، والمساءلة، وحماية الخصوصية، وضمان الأمان، وتوجيه التقنية نحو تحقيق المنفعة العامة.
غير أن الكاتب لا يكتفي بتعداد هذه المبادئ، بل يوجّه نقدًا صريحًا لاقتصارها على مستوى الخطاب دون آليات تنفيذ فعّالة. فكثير من الشركات تُعلن التزامها الأخلاقي في وثائق رسمية، بينما تستمر ممارساتها في اتجاه مغاير، وهو ما يُعرف بـ"غسل الأخلاق". كما يلفت إلى إشكالية تركّز القوة، حيث تُهيمن شركات قليلة على تطوير الذكاء الاصطناعي، بما تمتلكه من موارد اقتصادية ومعرفية هائلة، الأمر الذي يجعل من هذه الهيمنة نفسها قضيةً أخلاقية قائمة بذاتها.
بهذا، يتضح أن النقاش حول الذكاء الاصطناعي لم يعد سؤالًا تقنيًا محضًا، بل بات ساحة تتقاطع فيها الفلسفة والتكنولوجيا والسياسة، حيث يُعاد رسم حدود العدالة، والمسؤولية، وحتى معنى الإنسان في عالمٍ تعيد الآلة تشكيله.
|