Chat GPT وبوصلتنا الأخلاقية.. أيهما يوجه الآخر؟

Chat GPT وبوصلتنا الأخلاقية.. أيهما يوجه الآخر؟

لبيد مرزا

  • ما حقيقة القول بامتلاك روبوتات الذكاء الاصطنتعي موقفا أخلاقيا خاصا؟
  • أوليست تلك الروبوتات تعمل وفق تغذية محددة بمعلومات معدة سلفا؟

___

لاح في الأفق منذ إصدار ChatGPT في نوفمبر 2022 سؤال مهم، ألا وهو: “كيف تُنشئ روبوتات المحادثة بوصلات أخلاقية، وما هو السبيل لابتكار ذلك؟!” سنحاول عبر هذه السطور استكشاف هذا الحقل الشاسع الذي لا نكاد نفقه منه إلا النزر اليسير.

نتعرض خلال حياتنا للعديد من العوامل التي تؤثر مباشرة على كيفية تحديدنا لما هو جيد وسيئ أخلاقياً. ومن تلك العوامل المؤثرة مباشرة على بوصلتنا الأخلاقية الدين والثقافة والتربية والبيئة المحيطة.

اطمئن عزيزي القارئ، لن نخوض عبر السطور بهدف تمييز الجيد من السيئ، إذ نؤثِر ترك هذه المهمة للمفكرين وعلماء الدين وفلاسفة الأخلاق والمرشدين الروحيين في مجتمعنا، ويتلخص سوالنا “كيف نميز  بين ما هو جيد وما هو سيئ؟!”

نحن مدركون إلى حد كبير لما يشكل منظورنا الأخلاقي. إذن يمكننا القول أن لدينا تأثيرًا كبيرًا على بلورة قيمنا الأخلاقية لأننا نكتسب مع الزمن فهماً أعمق لأصولها. خذوا على سبيل المثال الهندوسي الذي لا يأكل سوى الطعام النباتي، مهما حاول محيطه أن يثنيه عن عادته تلك ليفعل خلاف ذلك، فهو مدرك لما يأمره به دينه وطالما ينتمي بإرادته إلى هذا الدين فهو ملزم أيضاً بمعتقداته.

إن ملَكة التعقل والتأمل والتفكير واتخاذ القرار كلها سمات تجعل المخلوق البشري كائناً رائعاً للغاية. يلمح القرآن الكريم إلى ذلك بقوله:

قُل لَّا أَقُولُ لَكُمْ عِندِي خَزَائِنُ اللَّهِ وَلَا أَعْلَمُ الْغَيْبَ وَلَا أَقُولُ لَكُمْ إِنِّي مَلَكٌ ۖ إِنْ أَتَّبِعُ إِلَّا مَا يُوحَىٰ إِلَيَّ ۚ قُلْ هَلْ يَسْتَوِي الْأَعْمَىٰ وَالْبَصِيرُ ۚ أَفَلَا تَتَفَكَّرُونَ (1)

 روبوت المحادثة “TextsWithJesus” 

TextsWithJesus هو تطبيق سطح المكتب ويهدف إلى استنساخ صوت يسوع. يمكن للمرء أن يطلب النصيحة أو الدعاء أو حتى التبريك من روبوت المحادثة ولكن المثير للاهتمام هو أن هذا الروبوت، وهو مصمم لتقليد أو استنساخ شخصية مقدسة (وحتى إله بالنسبة للعديد من المسيحيين)، يتبع نهجاً غير محافظ في التعامل مع الدين.

فعندما نسأله عن أكثر المقاطع إثارة للجدل في الكتاب المقدس مثل تلك التي تناقش عقاب النساء غير العذراوات (التثنية 22: 20-21) والمثلية الجنسية (اللاويين 20: 13) فسرعان ما يذّكرنا بأن مثل هذه الآيات لم تعد صالحة للتطبيق كما كانت وقت كتابتها وبأن علينا التركيز على تعاليم يسوع عن الحب والرحمة.

والغرض من التركيز على هذه الأمثلة على وجه الخصوص هو تسليط الضوء على واحدة فقط من المغالطات العديدة التي يأتي بها الذكاء الاصطناعي، وهي بلورة العقول القابلة للتأثر من خلال اختيار كيفية التعامل مع المعلومة.

تكلّم عالمُ الكمبيوتر البريطاني “ستيوارت راسل”، الحائز على رتبة ضابط فائقة الامتياز في الإمبراطورية البريطانية، عن قدرة روبوتات المحادثة على تضليل البشر فقال:

“لا يوجد في منظور نظام الذكاء الاصطناعي فرق بين قول الحقيقة واختلاق شيء خرافي تماماً.” (2)

ومن وجهة نظر طائفة عظيمة من التيار المحافظ من المفكرين والفلاسفة ورجال الدين، فإن ثورة الذكاء الاصطناعي الأخيرة ستتمخض عن نتائج لا تُحمد عقباها، بما يمكن تمثيله بصندوق باندورا. وبحسب الأساطير الإغريقية، فإن باندورا هي المرأة الأولى على الأرض، وورد ذكرها في قصيدتي “أنساب الآلهة” و“الأعمال والأيام”، للشاعر هسيودوس، في القرن السابع قبل الميلاد، ويمكن القول إن باندورا لدى الإغريق القدماء، هي صنو لحواء زوجة آدم في المعتقدات اليهودية والمسيحية. وبحسب الأسطورة فقد كان صندوق باندورا يضم كل شرور وأمراض العالم من موت، وحروب، وأوبئة، وجشع، وكراهية، وكل ما يمكن أن ينغص حياة الإنسان ويعكر صفوه، وما أن فتحت باندورا الصندوق بدافع الفضول الفطري حتى صدرت منه رائحة كريهة، فزعت باندورا وأعادت إغلاق الصندوق، ولكن الأوان كان قد فات، وانتشرت الشرور بين البشر، وانتهى ما يسميه الشاعر هسيودوس بالعصر الذهبي للبشرية. (3)

وعلى الرغم من أن هذه القصة أسطورة قديمة، إلا أن لها صدى كبير في العالم الحديث.

الإنترنت فائق السرعة ووسائل التواصل الاجتماعي والذكاء الاصطناعي يشبه كل منها صندوق باندورا إلى حد بعيد. إذ أطلق كلٌّ منها العنان، بصورة ما، لقدر هائل من الشر في العالم.

 

هل تمتلك روبوتات الذكاء الاصطناعي موقفاشخصيا؟!

خلال العقد الثاني من القرن الحادي والعشرين، قامت “أناليتيكا كامبريدج”، وهي شركة استشارية بريطانية، بجمع معلومات شخصية عن الملايين من مستخدمي موقع التواصل الاجتماعي “فيس بوك” دون إذنهم، وذلك بغرض التسويق السياسي. وغالباً ما يشار إلى هذا الحدث باسم فضيحة بيانات “فيس بوك” “أناليتيكا كامبريدج”.

كان من المثير للاهتمام أن نسأل ChatGPT عما كان بالضبط سيئاً أخلاقياً في فضيحة “كامبريدج أناليتيكا” لعام 2018. ونذكر هنا نقطتين من إجابته:

التلاعب والاستهداف: “استخدمت “كامبريدج أناليتيكا” البيانات التي تم جمعها لإنشاء ملفات نفسية مفصلة للمستخدمين واستخدمت معلوماتهم لاستهدافهم في الإعلانات السياسية. وأثار ذلك مخاوف كبيرة بشأن التلاعب بالأفراد من خلال استهدافهم برسائل مصممة خصيصاً لهم وإمكانية التأثير على آرائهم السياسية دون وعيهم.”

المخاوف الأخلاقية: “أثارت الأساليب التي استخدمتها كامبريدج أناليتيكا مثل نشر المعلومات المضللة واستغلال نقاط الضعف النفسية مخاوف أخلاقية. عموماً يُعتبر التلاعب بعواطف الأفراد ومعتقداتهم لتحقيق مكاسب سياسية أمراً غير أخلاقي”.

يخبرنا ChatGPT أن الشركة ارتكبت خطأ أخلاقياً لأنها استغلت ضعف المستخدمين بأن تلاعبت بالإعلانات. مع أن البعض يزعم أن ChatGPT يفعل الشيء نفسه عملياً، إلا أنه ليس من العدل القول إن ChatGPT منافق لأنه مجرد برنامج كمبيوتر يعتمد على شبكات تم تدريبها على مجموعات هائلة من البيانات والمعلومات.

ومع ذلك، يجدر الذكر أن لهذا البرنامج موقف سياسي خاص به. في يناير/كانون الثاني، نشر فريق من الباحثين في الجامعة التقنية في ميونيخ وجامعة هامبورغ نسخة مسبقة من ورقة أكاديمية خلصت إلى أن ChatGPT لديه “توجه ليبرالي يساري مؤيد للبيئة”.

الهدف من هذه المقالة ليس التأثير على القارئ حتى لا يستخدم البرنامج، ولا إخباره بأن عليه معارضة الحزب الليبرالي اليساري المؤيد للبيئة بل الهدف هو تذكيره بأن البرنامج هو أداة لا ينبغي لها تقديم الآراء كحقائق والتأثير على بوصلته الأخلاقية. لأن ذلك سوف يؤدي إلى الانحلال الأخلاقي في المجتمع. لقد أعطي الإنسان عقلاً قادراً على استخدام أفكاره وآرائه من أجل الوصول إلى الاستنتاجات.

ولهذا السبب بالذات  أصدر حضرة مرزا مسرور أحمد نصره الله توجيهه لفريق عمل الموقع الرسمي alislam.org قائلا:

“علينا أن نتوصل إلى طريقة تجعل الذكاء الاصطناعي آمناً حتى لا يتمكن الآخرون من تقديم معلوماتنا بطريقة خاطئة. لذا، فعليكم من الآن فصاعداً أن تنظروا في الأمر وتخططوا وفقاً لذلك”. (4)

 

هي أدوات، ليس إلا!

في الختام، قد لا تكون روبوتات المحادثة منافقة في ردودها لكن من الضروري أن ندرك أنها تعمل بناء على تدريب مكثف على البيانات والخوارزميات وتفتقر إلى الوعي أو الأخلاق البشرية. ومع ذلك، فإن الكشف عن توجهها السياسي يسلط الضوء على أهمية التعامل مع أدوات الذكاء الاصطناعي بتفكير ناقد.

ليس هدفنا صرف الناس عن استخدام هذه التكنولوجيا أو معارضة أي موقف سياسي معين قد تتخذه بل التذكير بأن روبوتات المحادثة هي أدوات ليس إلا، ويجب أن نظل يقظين حتى لا نسمح لها بتوجيه بوصلتنا الأخلاقية أو بأن تحل محل قدرتنا على التفكير المستقل والحكم العقلاني. مع تقدمنا في عصر الذكاء الاصطناعي تصبح حماية معلوماتنا وضمان الاستخدام المسؤول ذات أهمية كبيرة لنحول دون حدوث الانحلال الأخلاقي في المجتمع.

الهوامش:

1. https://www.gbnews.com/news/chat-gpt-ai-news-tech-latest

2. https://www.bbc.com/arabic/art-and-culture-58818973

3. arxiv.org/abs/2301.01768

4. www.youtube.com/watch?v=NSKdtxCD81s&t=273s

Share via
تابعونا على الفايس بوك