رسالة البابا فرنسيس بمناسبة اليوم العالمي للسّلام ٢٠٢٤

“إنَّ التّطورات التّكنولوجيّة التي لا تؤدّي إلى تحسين نوعيّة حياة البشريّة جمعاء، بل تؤدّي إلى تفاقم عدم المساواة والصّراعات، لا يمكن اعتبارها أبدًا تقدّمًا حقيقيًّا” هذا ما كتبه قداسة البابا فرنسيس في رسالته بمناسبة اليوم العالمي السّابع والخمسين للسّلام
تحت عنوان “الذّكاء الاصطناعيّ والسّلام” صدرت ظهر اليوم رسالة قداسة البابا فرنسيس بمناسبة اليوم العالمي السّابع والخمسين للسّلام كتب فيها الأب الأقدس في بداية السّنة الجديدة، زمن النّعمة الذي يمنحه الرب لكلّ فردٍ منّا، أودّ أن أتوجّه إلى شعب الله، وإلى شعوب العالم، ورؤساء الدّول والحكومات، وممثّلي الدّيانات المختلفة والمجتمع المدنيّ، وإلى جميع الرّجال والنّساء في زمننا، لكي أتقدّم من الجميع بأطيب أمنياتي للسلام.
تابع البابا فرنسيس يقول يؤكّد الكتاب المقدّس أنّ الله قد أعطى البشر روحه لكي تكون لهم “مَهارة وفَهْم ومَعرِفة بِجَميعِ الصَّنائع”. الذّكاء هو تعبير عن الكرامة التي أعطانا إيّاها الخالق، الذي خلقنا على صورته ومثاله، وجعلنا قادرين على أن نجيب على محبّته بالحرّيّة والمعرفة. إنَّ العِلم والتّكنولوجيا يُظهران بصورة خاصّة هذه الميزة الأساسيّة العلائقيّة للذّكاء البشريّ: إنهما منتجان استثنائيّان لقدرته الإبداعيّة. في الدّستور الرّعائي فرح ورجاء، أعاد المجمع الفاتيكانيّ الثّاني التأكيد على هذه الحقيقة، وأعلن أنّ “الإنسان قد سعى دائمًا لتطوير حياتَه بعملِه وذكائه”. عندما يجتهد البشر، “بمساعدة التكنولوجيا”، لكي تُصبح الأرض “مسكنًا يليق بالعائلة البشريّة كلّها”، هم يعملون بحسب تدبير الله ويتعاونون مع مشيئته لكي يتمِّموا الخلق وينشروا السّلام بين الشّعوب. كذلك وبقدر مساهمتهما في تحسين نظام المجتمع البشريّ، وفي زيادة الحرّيّة والشّركة الأخويّة يؤدّي العِلم والتّكنولوجيا إلى تحسين الإنسان وتحويل العالم.
أضاف الأب الأقدس يقول ونحن بحقّ نفرح ونشعر بالامتنان لإنجازات العِلم والتّكنولوجيا الرائعة، والتي بفضلها وُجِدَ علاجٌ لعدد لا يحصى من الشّرور التي كانت تصيب الحياة البشريّة وتُسبب آلامًا كبيرة. وفي الوقت عينه، إذ يجعل من الممكن ممارسة سيطرة غير مسبوقة على الواقع، يضع التّقدّم التكنولوجي والعِلميّ، بين يدَيّ الإنسان مجموعة واسعة من الإمكانيّات، والتي قد تُمثِّل بعضها خطرًا على بقاء الإنسان على قيد الحياة وعلى بيتنا المشترك. ولذلك يقدّم التّقدّم الملحوظ الذي حقّقته تكنولوجيّات المعلومات الجديدة، ولاسيما في المجال الرّقميّ، فرصًا مدهشة ومجازفات خطيرة، لها آثار جدّيّة على السّعي لتحقيق العدالة والتناغم بين الشّعوب. ولذلك من الضروري أن نطرح على أنفسنا بعض الأسئلة المُلِحَّة. ما هي العواقب على المدى القريب والبعيد للتكنولوجيّات الرّقميّة الجديدة؟ وماذا سيكون تأثيرها على حياة الأفراد والمجتمع وعلى الاستقرار الدّوليّ والسّلام؟
تابع الحبر الأعظم يقول لقد بدأ تقدّم تكنولوجيا المعلومات وتطوّر التّكنولوجيّات الرّقميّة يُحدِث، في العقود الأخيرة، تغيّرات عميقة في المجتمع العالميّ وديناميكيّاته. كذلك بدأت الأدوات الرّقميّة الجديدة تغيّر وجه الاتّصالات والإدارة العامّة والتّعليم والاستهلاك والعلاقات بين الأشخاص، والعديد من الجوانب الأخرى للحياة اليوميّة. كذلك، يمكن للتّقنيّات التي تستخدم عددًا كبيرًا من الخوارزميّات أن تستخرج، من الآثار الرّقميّة التي تُترك على “الإنترنت”، البيانات التي تسمح بالتّحكّم في عادات الأشخاص العقليّة والعلائقيّة لأغراض تجاريّة أو سياسيّة، غالبًا دون علمِهم، وتحُدُّ من ممارستهم الواعية لحرّيّة الاختيار. في الواقع، في فُسحة مثل الشّبكة المعلوماتيّة العالميّة، التي تتميّز بكمّيّة زائدة من المعلومات، يمكن للتّقنيّات أن تنظم تدفّق البيانات وفقًا لمعايير اختيار لا يتنبّه لها المستخدم دائمًا. وبالتالي علينا أن نتذكّر أنّ البحث العِلميّ والابتكارات التّكنولوجيّة ليست بعيدة عن الواقع ولا “حياديّة”، ولكنّها تخضع لتأثيرات ثقافيّة. ولكونها نشاطات إنسانيّة بكلّ معنى الكلمة، فالاتّجاهات التي تأخذها تعكس خيارات تحدّدها القيَم الشّخصيّة والاجتماعيّة والثّقافيّة لكلّ عصر. ويمكن قول الشيء نفسه عن النتائج التي تحققها: فلكونها نتيجة لمقاربات إنسانيّة في البيئة المحيطة بها، فهي تملك على الدوام بُعدًا أخلاقيًّا، يرتبط ارتباطًا وثيقًا بقرارات الذين يخطّطون للتجربة ويوجّهون الإنتاج نحو أهداف خاصّة. وهذا الأمر ينطبق أيضًا على أشكال الذّكاء الاصطناعيّ؛ التي لا يوجد لها حتّى الآن تعريف موحّد في عالم العِلم والتكنولوجيّا. إنَّ المصطلح نفسه، الذي دخل الآن في اللغة العامّة، يشمل مجموعة متنوّعة من العلوم والنّظريّات والتّقنيّات الموجّهة لكي تجعل الآلات تُكرِّر أو تقلِّد القدرات المعرفيّة للبشر في أدائها. لذلك فالحديث بصيغة الجمع عن “أشكال الذّكاء” يمكنه أن يساعد في المقام الأوّل على تسليط الضوء على الفجوة الهائلة والضخمة بين هذه الأنظمة، مهما كانت عجيبة وقويّة، وبين الشخص البشري: فهي في نهاية المطاف “مُجَزِّأة”، بمعنى أنّها يمكنها فقط أن تقلِّد أو أن تُكرِّر بعض وظائف الذّكاء البشري. كذلك يبيِّن استخدام صيغة الجمع أنّ هذه الأدوات، المختلفة فيما بينها، يجب أن يتمَّ اعتبارها دائمًا “أنظمة اجتماعيّة تقنيّة”. لأنّ تأثيرها، في الواقع، بغضّ النّظر عن التّكنولوجيا الأساسيّة، لا يعتمد على التّصميم وحسب، وإنما أيضًا على أهداف ومصالح الذين يمتلكونها والذين يقومون بتطويرها، وكذلك على الحالات التي يتمُّ فيها استخدامها. ولذلك، يجب أن يُفهم الذّكاء الاصطناعيّ كعالم من الحقائق المختلفة، ولا يمكننا أن نفترض بداهة أنّ تطوّره سيقدّم مساهمة مفيدة لمستقبل البشريّة وللسّلام بين الشّعوب. ولن تكون هذه النّتيجة الإيجابيّة ممكنة إلّا إذا أثبتنا أنّنا قادرون على التّصرّف بأسلوب مسؤول وباحترام القيَم الإنسانيّة الأساسيّة مثل الإدماج والشّفافيّة والأمن والمساواة والسّريّة والثّقة.
أضاف البابا فرنسيس يقول لا يكفي حتّى أن نفترض التزام الذين يصمّمون الخوارزميّات والتّقنيّات الرّقميّة بالتّصرّف بطريقة أخلاقيّة ومسؤولة. بل ينبغي أن نُعزز، أو، إذا لزم الأمر، أن نؤسس هيئات مسؤولة عن دراسة القضايا الأخلاقيّة المترتّبة عليها وحماية حقوق الذين يستخدمون بعض أشكال الذّكاء الاصطناعيّ أو يتأثّرون بها. ولذلك يجب على التّوسّع الهائل للتّكنولوجيا أن يترافق بتنشئة ملائمة على المسؤوليّة من أجل تطوّره. تتعرّض الحرّيّة والتعايش السلمي للتّهديد عندما يستسلِم البشر لتجرة الأنانيّة والمصلحة الشّخصيّة والجشع في الرّبح والتّعطّش إلى السّلطة. ولذلك، يقع على عاتقنا واجب توسيع الرّؤية وتوجيه البحث العِلميّ والتّقنيّ نحو تحقيق السّلام والخير العام، في خدمة التّنمية المتكاملة للإنسان والجماعة. وبالتالي على الكرامة الجوهريّة لكلّ شخص والأخوّة التي تربطنا كأعضاء في العائلة البشريّة الواحدة أن تكونا في أساس تطوير التّكنولوجيّات الجديدة، وتخدما كمعايير لا جدال فيها لتقييمها قبل استعمالها، لكي يتمَّ التّقدّم الرّقميّ في احترام العدالة ويساهم في قضيّة السّلام. إنَّ التّطورات التّكنولوجيّة التي لا تؤدّي إلى تحسين نوعيّة حياة البشريّة جمعاء، بل تؤدّي إلى تفاقم عدم المساواة والصّراعات، لا يمكن اعتبارها أبدًا تقدّمًا حقيقيًّا. إنَّ الذّكاء الاصطناعيّ سيصبح أكثر أهميّة على الدوام. والتّحدّيات التي يطرحها هي تحدّيات تقنيّة، ولكنّها أيضًا أنثروبولوجيّة وتربويّة واجتماعيّة وسياسيّة. فهي تَعِد، مثلًا، بتوفير الجهد، وبإنتاج أكثر فعّاليّة، ووسائل نقل أكثر راحة، وأسواق أكثر ديناميكية، بالإضافة إلى ثورة في عمليّات جمع البيانات وتنظيمها والتحقّق منها. لذلك علينا أن نتنبّه للتّحوّلات السّريعة القائمة وأن نديرها بطريقة تصون حقوق الإنسان الأساسيّة، وتحترم المؤسّسات والقوانين التي تعزّز التّنمية البشريّة المتكاملة. على الذّكاء الاصطناعيّ أن يكون في خدمة أفضل الإمكانات البشريّة وأسمى تطلّعاتنا، لا أن يتنافس معها.
تابع الأب الأقدس يقول إنَّ الذّكاء الاصطناعيّ القائم، بأشكاله المتعدّدة، على تقنيّات التّعلّم التّلقائي، على الرغم من أنّه لا يزال في المرحلة الإبداعيّة، إلا أنّه قد بدأ يُدخل تغييرات ملحوظة في نسيج المجتمعات، ويُمارس تأثيرًا عميقًا على الثّقافات والتصرفات الاجتماعيّة وبناء السّلام. فالتّطورات مثل التّعلّم الآلي أو التّعلّم العميق تطرح أسئلة تفوق مجالات التّكنولوجيا والهندسة، وتتعلّق بفهم يرتبط ارتباطًا وثيقًا بمعنى الحياة البشريّة وعمليّات المعرفة الأساسيّة وقدرة العقل على بلوغ الحقيقة. إنَّ قدرة بعض الأجهزة على إنتاج نصوص متماسكة ومتناسقة من حيث المعنى، على سبيل المثال، ليس ضمانًا لكي نثق بها. يقال إنّها تستطيع أن “تُبهِر”، أي أن تخلق عبارات تبدو للوهلة الأولى معقولة، ولكنها في الواقع لا أساس لها من الصحة أو تشير إلى تحيزات. وهذا الأمر يطرح مشكلة خطيرة عندما يُستخدَم الذّكاء الاصطناعيّ في حملات التّضليل التي تنشر أخبارًا مزيّفة وتؤدّي إلى عدم ثّقة متزايد إزاء وسائل الإعلام. كذلك تشكل السّريّة وحيازة البيانات والملكيّة الفكريّة مجالات أخرى تشكّل فيها هذه التّكنولوجيّات مخاطر جسيمة، يضاف إليها المزيد من العواقب السّلبيّة المرتبطة باستخدامها بصورة غير سليمة، مثل التمييز، والتّدخل في العمليّات الانتخابيّة، وانتشار مجتمعات تراقب الأشخاص وتتحكم بهم، الاستبعاد والتهميش الرّقميّ، وتفاقم نزعة فرديّة أكثر انفصالًا عن الجماعة. جميع هذه العوامل تهدّد بتغذية الصّراعات وعرقلة السّلام.
أضاف الحبر الأعظم يقول إنَّ عالمنا واسع جدًّا، ومتنوّع ومعقّد لكي نعرفه معرفة كاملة ونصنّفه. وبالتالي فإن العقل البشريّ لن يتمكنَّ أبدًا من أن يستنفد غناه، ولا حتّى بمساعدة أكثر الخوارزميّات تقدّمًا. إنَّ هذه الخوارزميّات في الواقع، لا تقدّم لنا توقّعات مضمونة حول المستقبل، وإنما مجرّد إحصائيّات تقريبيّة فقط. لا يمكننا التنبُّؤ بكلّ شيء، كما لا يمكننا أيضًا أن نحسب كلّ شيء، لأنّ الواقع في النّهاية هو أسمى من الفكرة، ومهما كانت قدرتنا الحسابية هائلة، سيكون هناك دائمًا بقايا يتعذر الوصول إليها وتفلت من أي محاولة للقياس. كذلك، فإن كمّيّة البيانات الكبيرة التي يحلّلها الذّكاء الاصطناعيّ لا تشكّل بحدِّ ذاتها ضمانة للحياديّة. عندما تقوم الخوارزميات باستقراء المعلومات، هي تخاطر دائمًا بتشويهها، وتعيد تكرار أشكال الظلم والأحكام المسبقة في البيئات التي تنشأ فيها. وكلّما أصبحت أكثر سرعة وتعقيدًا، كلّما أصبح أكثر صعوبة لنا أن نفهم سبب إنتاجها لنتيجة معينة. يمكن للآلات الذّكيّة أن تؤدّي المَهام الموكلة إليها بكفاءة كبيرة، ولكن الإنسان الذي يملك عالمه الخاص من القيم هو الذي سيستمرّ في تحديد وتفعيل الهدف والمعنى لعمليّاتها. يكمن الخطر في أنّ تصبح المعايير لبعض الخيارات أقلّ وضوحًا، وأن تغيب المسؤوليّة في اتّخاذ القرار، وأن يتهرب المنتجون من التزام العمل من أجل خير الجماعة. بمعنى ما، يعزّز هذه الإمكانيّة النّظام التّكنوقراطيّ، الذي يربط الاقتصاد والتّكنولوجيا، ويفضِّل معيار الفعّاليّة في الإنتاج، فيما يميل إلى تجاهُل كلّ ما لا يرتبط بمصالحه المباشرة. وبالتالي على هذا الأمر أن يجعلنا نفكّر في جانبٍ كثيرًا ما نُهمله في العقليّة التكنوقراطيّة والموجّهة نحو الكفاءة، لأنه أمر حاسم للتنمية الشخصية والاجتماعية: “الإحساس بالحدود”. إنَّ الإنسان، في الواقع، الذي هو كائنٌ فانٍ بتعريفه، إذ يفكّر في تجاوز جميع الحدود بفضل التّكنولوجيا، يخاطر، في هَوَسِه لإخضاع كلّ شيء لسيطرته بأن يفقد السيطرة على نفسه، وفي بحثه عن الحرّيّة المطلقة بأن يسقط في دوّامة ديكتاتوريّة تكنولوجيّة. إنَّ الاعتراف بحدودنا كخليقة وقبولها، هو شرط لا غِنَى عنه للإنسان لكي يحقّق، أو بالأحرى، لكي يقبل الكمال كعطيّة. أما في السياق الإيديولوجي للنموذج التكنوقراطي، الذي يحركه الافتراض البروميثوسي للاكتفاء الذاتي، من الممكن أن تتسع فجوة التفاوت بشكل كبير، وأن تتراكم المعرفة والغنى في أيدي أقليّة من الناس، فتتسبب بمخاطر جسيمة للمجتمعات الديمقراطية والتعايش السلمي.
تابع البابا فرنسيس يقول في المستقبل، سيكون من الممكن أن تحدد أنظمة الذكاء الاصطناعي مصداقية الشخص الذي يتقدم بطلب للحصول على قرض مالي، أو مدى ملاءمة فرد ما لوظيفة ما، أو إمكانية أن يعاود مجرم ما ارتكاب جرائمه، أو الحق في الحصول على اللجوء السياسي أو المساعدة الاجتماعية. إن غياب مستويات الوساطة المتنوعة التي تقدمها هذه الأنظمة يتعرض بشكل خاص لأشكال من التحيز والتمييز: يمكن أن تتضاعف الأخطاء المنهجية بسهولة، وأن تؤدِّيَ ليس فقط إلى الظلم في حالات فردية، وإنما أيضًا، ومن خلال تأثير الدومينو، إلى أشكال حقيقية من عدم المساواة الاجتماعية. كذلك، تبدو أشكال الذكاء الاصطناعي في بعض الأحيان قادرة على التأثير على قرارات الأفراد من خلال خيارات محددة سلفا مرتبطة بالمحفزات والإقناع، أو من خلال أنظمة تنظيم الاختيارات الشخصية القائمة على تنظيم المعلومات. تتطلب هذه الأشكال من التلاعب أو السيطرة الاجتماعية اهتمامًا وإشرافًا دقيقين، وتتضمّن مسؤولية قانونية واضحة من جانب المنتجين والذين يستخدمونها والسلطات الحكومية.
تابع الأب الأقدس يقول يمكن للاتكال على العمليات التلقائية التي تصنف الأفراد، على سبيل المثال من خلال الاستخدام الواسع النطاق للمراقبة أو تبنّي أنظمة الائتمان الاجتماعي، أن يكون له أيضًا تداعيات عميقة على النسيج المدني، وأن يؤدي إلى تصنيفات غير لائقة بين المواطنين. ومن الممكن أن تؤدي عمليات التصنيف المصطنعة هذه أيضًا إلى صراعات على السلطة، لا تطال فقط المتلقين الافتراضيين، وإنما الأشخاص الحقيقيين أيضًا. إنّ الاحترام الأساسي للكرامة البشريّة يتضمّن رفض تحديد فرادة الشخص البشري من خلال مجموعة من البيانات. لا يجب أن نسمح للخوارزميات أن تحدِّد كيفية فهمنا لحقوق الإنسان، أو أن تضع جانبًا القيم الأساسية للشفقة والرحمة والتسامح، أو أن تقضي على إمكانية الفرد على أن يتغيَّر ويترك الماضي خلفه. وفي هذا السياق، لا يمكننا إلا أن نأخذ في عين الاعتبار تأثير التكنولوجيات الجديدة في مجال العمل: فالمهام التي كانت في الماضي حكراً على اليد العاملة البشرية بدأت تنصهر بسرعة في التطبيقات الصناعية للذكاء الاصطناعي. وحتى في هذه الحالة، هناك الخطر الجوهري لميزة غير متناسبة لعدد قليل من الأشخاص على حساب إفقار الكثيرين. على احترام كرامة العمال وأهمية العمل من أجل الرفاه الاقتصادي للأفراد والعائلات والمجتمعات، والأمن الوظيفي والأجور العادلة، أن يشكلوا أولوية عالية للمجتمع الدولي، في حين أن أشكال التكنولوجيا هذه تتغلغل بشكل أعمق في أماكن العمل .
أضاف الحبر الأعظم يقول في هذه الأيام، وبالنظر إلى العالم الذي يحيط بنا، لا يمكننا أن نهرب من القضايا الأخلاقية الخطيرة المتعلقة بقطاع التسلح. لقد أدت إمكانية إجراء عمليات عسكرية من خلال أنظمة التحكم عن بعد إلى تصور أقل للدمار الذي تسببه هذه الأنظمة ولمسؤولية استخدامها، وساهمت في اتباع نهج أكثر برودة وأكثر انفصالًا عن مأساة الحرب الهائلة. إن البحث حول التقنيات الناشئة في قطاع ما يسمى “أنظمة الأسلحة الفتاكة المستقلة”، بما في ذلك استخدام الذكاء الاصطناعي في الحرب، يشكل سببا خطيرًا للقلق الأخلاقي. لا يمكن لأنظمة الأسلحة المستقلة أن تكون أبدًا أشخاصًا مسؤولين أخلاقيًا: لأن القدرة البشرية الحصرية على الحكم الأخلاقي وعلى اتخاذ القرار الأخلاقي هي أكثر من مجرد مجموعة معقدة من الخوارزميات، ولا يمكن اختزال هذه القدرة إلى برمجة آلة ما، تبقى آلة، على الرغم من كونها “ذكية”. ولهذا السبب، من الضروري أن نضمن رقابة بشرية ملائمة ومعنويّة ومتماسكة لأنظمة الأسلحة. لا يمكننا أن نتجاهل حتى إمكانية وقوع أسلحة متطورة في الأيدي الخاطئة، ونسهل على سبيل المثال الهجمات الإرهابية أو التدخلات التي تهدف إلى زعزعة استقرار المؤسسات الحكومية الشرعية. باختصار، إنّ العالم لا يحتاج حقًا إلى تقنيات جديدة تساهم في التطوير غير العادل لسوق الأسلحة وتجارتها، وتعزِّز جنون الحرب. وبهذه الطريقة، لن يتعرض الذكاء وحده لخطر أن يصبح أكثر “اصطناعيًّا”، بل قلب الإنسان نفسه. كذلك لا ينبغي استخدام التطبيقات التقنية الأكثر تقدما من أجل تسهيل الحل العنيف للصراعات، وإنما لتمهيد دروب السلام. ومن منظور أكثر إيجابية، إذا تم استخدام الذكاء الاصطناعي لتعزيز التنمية البشرية المتكاملة، فسيتمكّن من أن يدخل ابتكارات مهمة في الزراعة والتعليم والثقافة، وتحسين مستوى معيشة أمم وشعوب بأكملها، ونمو الأخوة الإنسانية والصداقة الاجتماعية. وفي النهاية، ستشكّل الطريقة التي نستخدم فيها الذكاء الاجتماعي من أجل إدماج الأخيرين، أي الإخوة والأخوات الأشدَّ ضعفًا والمعوزين، المقياس الكاشف لإنسانيتنا. إن النظرة الإنسانية والرغبة في مستقبل أفضل لعالمنا تؤديان إلى الحاجة إلى حوار متعدد التخصصات يهدف إلى تطوير أخلاقي للخوارزميات – أخلاقيات الخوارزميات – توجه فيه القيم مسارات التقنيات الجديدة. كذلك يجب أن تؤخذ القضايا الأخلاقية في عين الاعتبار منذ بداية البحث، وكذلك في مراحل الاختبار والتصميم والتصنيع والتوزيع والتسويق. هذا هو النهج الأخلاقي للتصميم، والذي تلعب فيه المؤسسات التربويّة وصناع القرار دورًا أساسيًا.
أضاف الأب الأقدس يقول إن تطوير تكنولوجيا تحترم وتخدم الكرامة البشريّة له آثار واضحة على المؤسسات التربوية وعالم الثقافة. ومن خلال مضاعفة إمكانيات الاتصال، أتاحت التكنولوجيات الرقمية اللقاء بطرق جديدة. ومع ذلك، تبقى هناك ضرورة تأمل مستمر حول نوع العلاقات التي توجهنا نحوها. وبالتالي ينمو الشباب في بيئات ثقافية تسود فيها التكنولوجيا، وهذا الأمر لا يمكنه إلا أن يثير تساؤلات حول أساليب التعليم والتنشئة. على التربية على استخدام أشكال الذكاء الاصطناعي أن تهدف بشكل خاص إلى تعزيز الفكر النقدي. ومن الأهمية بمكان أن يُطوِّر المستخدمون من جميع الأعمار، ولاسيما الشباب، قدرة على التمييز في استخدام البيانات والمحتوى الذي يتم جمعه على الانترنت أو الذي تنتجه أنظمة الذكاء الاصطناعي. وبالتالي تدعى المدارس والجامعات والجمعيات العلمية لكي تساعد الطلاب والمهنيين على تبنّي الجوانب الاجتماعية والأخلاقية لتطوير واستخدام التكنولوجيا. كذلك على التنشئة على استخدام أدوات الاتصال الجديدة أن تأخذ في عين الاعتبار لا المعلومات الخاطئة والأخبار المزيفة وحسب، وإنما أيضًا الظهور المقلق لـ “مخاوف متوارثة عرفت كيف تختبئ وتعزز نفسها خلف تكنولوجيات جديدة”. ولسوء الحظ، نجد أنفسنا مرة أخرى مضطرين إلى محاربة “تجربة خلق ثقافة الجدران، ورفع الجدران لمنع اللقاء مع الثقافات الأخرى، ومع أشخاص آخرين” وتنمية التعايش السلمي والأخوي.
تابع الحبر الأعظم يقول إن الانتشار العالمي للذكاء الاصطناعي يوضح أنه إلى جانب مسؤولية الدول ذات السيادة في تنظيم استخدامه داخليا، يمكن للمنظمات الدولية أن تلعب دورا حاسما في التوصل إلى اتفاقيات متعددة الأطراف وتنسيق تطبيقها وتنفيذها. وفي هذا الصدد، أحث مجتمع الأمم على العمل معًا من أجل تبنّي معاهدة دولية ملزمة، تنظم تطوير واستخدام الذكاء الاصطناعي بأشكاله المتعددة. وبطبيعة الحال، لا ينبغي أن يكون الهدف من التنظيم منع الممارسات السيئة فحسب، بل ينبغي أن يكون أيضا تشجيع الممارسات الجيدة، وتحفيز الأساليب الجديدة والإبداعية، وتسهيل المبادرات الشخصية والجماعية. وفي نهاية المطاف، في البحث عن النماذج التنظيمية التي يمكنها أن تؤمِّن دليلاً أخلاقيًّا لمطوري التكنولوجيات الرقمية، من الضروري تحديد القيم البشريّة التي يجب أن تكون في أساس التزام المجتمعات في صياغة واعتماد وتطبيق الأطر التشريعية اللازمة. وبالتالي لا يمكن للعمل على صياغة مبادئ توجيهية أخلاقية لإنتاج أشكال الذكاء الاصطناعي أن يتجاهل النظر في أسئلة أعمق تتعلق بمعنى الوجود البشري، وحماية حقوق الإنسان الأساسية، والسعي لتحقيق العدالة والسلام. يمكن لعملية التمييز الأخلاقي والقانوني هذه أن تكون فرصة ثمينة لتأمُّل مشترك حول الدور الذي يجب أن تلعبه التكنولوجيا في حياتنا الفردية والجماعيّة وحول كيفية مساهمة استخدامها في خلق عالم أكثر إنصافًا وإنسانية. ولهذا السبب، في المناقشات حول تنظيم الذكاء الاصطناعي، ينبغي أن تؤخذ في عين الاعتبار أصوات جميع الأطراف المعنيّة، بما في ذلك الفقراء والمهمشين وغيرهم ممن غالبًا ما لا يتمُّ الإصغاء إليهم في عمليات صنع القرار العالمية.
وختم البابا فرنسيس رسالته بمناسبة اليوم العالمي السّابع والخمسين للسّلام بالقول آمل أن يشجعنا هذا التأمل على أن نجتهد لكي يخدم التقدم في تطوير أشكال الذكاء الاصطناعي في نهاية المطاف قضية الأخوة الإنسانية والسلام. إنها ليست مسؤولية أقلية من الناس، وإنما مسؤولية العائلة البشرية بأسرها. إن السلام، في الواقع، هو ثمرة العلاقات التي تعترف بالآخر وتقبله في كرامته غير القابلة للتصرف، والتعاون والالتزام في البحث عن التنمية المتكاملة لجميع الأشخاص وجميع الشعوب. إن صلاتي في بداية العام الجديد هي ألا يزيد التطور السريع لأشكال الذكاء الاصطناعي من أشكال عدم المساواة والظلم الكثيرة الموجود في العالم، بل أن يساهم في وضع حد للحروب والصراعات، والتخفيف من العديد من أشكال الألم التي تعاني منها العائلة البشرية. ليتمكّن المؤمنون المسيحيون والمؤمنون من مختلف الديانات والرجال والنساء ذوي الإرادة الصالحة أن يتعاونوا في انسجام لاغتنام الفرص ومواجهة التحديات التي تفرضها الثورة الرقمية، ويسلِّموا الأجيال القادمة عالمًا أكثر تضامنًا وعدالة وسلامًا.