foxy chick pleasures twat and gets licked and plowed in pov.sex kamerki
sampling a tough cock. fsiblog
free porn

الذّكاء الاصطناعي وأخلاقيّات البحث العلمي

0

عنوان البحث: الذّكاء الاصطناعي وأخلاقيّات البحث العلمي

اسم الكاتب: د.نازك سلمان بدير

تاريخ النشر: 15/09/2025

اسم المجلة: مجلة أوراق ثقافية

عدد المجلة: 39

تحميل البحث بصيغة PDF

الذّكاء الاصطناعي وأخلاقيّات البحث العلمي

L Intelligence Artificielle et L Éthique de la recherche scientifique

Dr. Nazik Salman Badeer د.نازك سلمان بدير([1])

تاريخ الإرسال:21-8-2025                          تاريخ القبول:3-9-2025

ملخّص

نعيش اليوم ثورة رقميّة فرضت تغيّرًا في أنماط العيش والسّلوك، إذ تمكّنت تطبيقات الذّكاء الاصطناعي من أن تفرض نفسها أداة للوصول إلى المعلومات، مع ما يترتّب على ذلك من محاذير جمّة، فالركون إلى هذه التّطبيقات لإنجاز البحوث العلميّة له تداعيات أخلاقيّة، كونه يمسّ مصادر المعلومات الأساسيّة، وينتهك معايير الخصوصيّة والشّفافيّة، ويفضي إلى نواتج، غالبًا ما تكون انحيازيًة، وتفتقر إلى العدالة، والدقّة. كما أنّ الاعتماد على تطبيقات الذكاء الاصطناعي في إنتاج البحث العلمي يحدّ من إمكانات الباحث على التأمّل والتفكير، ويعطّل من قدرات العقل البشري.

أمام ذلك كلّه، بات من الواجب على الباحث، الالتزام بأخلاقيّات البحث العلمي، وبالتّشريعات القانونيّة الصادرة عن الجهات المحليّة والدوليّة، عند استخدام أنظمة الذكاء الاصطناعي.

الكلمات المفتاحيّة: الذكاء الاصطناعي- أخلاقيّات-البحث العلمي- التحيّز الخوارزمي-انحياز البيانات

Résumé

Nous évoluons aujourd’hui au cœur d’une révolution numérique qui transforme radicalement nos modes de vie et nos comportements. Les applications d’intelligence artificielle se sont imposées comme des vecteurs incontournables d’accès à l’information, non sans soulever de sérieuses problématiques. Le recours à ces outils dans le champ de la recherche scientifique entraîne des répercussions éthiques majeures : il compromet l’intégrité des sources primaires, enfreint les principes de confidentialité et de transparence, et produit des résultats souvent biaisés, manquant d’équité et de précision.

En outre, la dépendance croissante à l’intelligence artificielle dans la production du savoir scientifique tend à affaiblir les capacités de réflexion et d’analyse du chercheur, en altérant le fonctionnement même de l’intellect humain. Face à ces dérives potentielles, il incombe au chercheur de s’astreindre au respect rigoureux des normes éthiques de la recherche académique, ainsi qu’aux dispositions légales édictées par les instances nationales et internationales lorsqu’il fait usage des systèmes d’intelligence artificielle.

La révolution numérique qui happe notre époque transforme radicalement nos modes de vie et nos comportements. Les applications d’intelligence artificielle sont devenues une source incontournable de l’information tout en soulevant de sérieuses problématiques en matière de recherche. En fait, le recours à ces applications dans le domaine de la recherche transgresse les lois de l’éthique.

Mots-Clés:Intelligence artificielle-Ethique-Recherche scientifique-Biais algorithmique-Biais des donnees

   مقدّمة: في عصر تتدفّق فيه التكنولوجيا، وتدخل برامج الذّكاء الاصطناعي مختلف المجالات العلميّة، والثقافيّة، والاقتصاديّة، والاجتماعيّة، والنفسيّة، والسياسيّة، يجد الفرد نفسه في مواجهة حماية خصوصيّته، وضرورة الحفاظ على أخلاقيّات البحث العلمي. وعلى الرّغم من المنجزات التي حقّقها الذّكاء الاصطناعي، بيد أنّه ينطوي على مخاطر جمّة، لعلّ من أبرزها، انتهاك الخصوصيّة، والولوج إلى البيانات الشخصيّة، وسرقتها، والتلاعب بها، وإسقاط القيم الأخلاقيّة، في خلال عمليّة جمْع البيانات، وتحليلها، واستغلال العمالة الرخيصة في دول الجنوب العالمي، واحتكار البيانات من لدن شركات “وادي السيلكون”. إضافة إلى امتداد الاستعمار الرقمي بأشكال متعدّدة، متخّذا قطاع التعليم في الدول النامية قناعًا لتدريب كوادر تعليميّة على برامج ميكروسوفت، المجهّزة لجمع بيانات عن الطلّاب والأساتذة. يأتي ذلك كلّه، في ظلّ غياب قوانين صارمة تحكم استخدام الذكاء الاصطناعي في البحث، بوصفه أداة للتطوير، وليس للدفع باتّجاه الوراء.

أهميّة البحث: تنهض أهميّة البحث من ضرورة العودة إلى التمسّك بالأخلاقيّات في زمن سيادة المادة، وتحكّمها بمفاصل العالم، ومجالات الصحّة، والاقتصاد، والثقافة، والسياسة، والتعليم، ومن الحاجة المُلحّة إلى تسليط الضوء على القيم الأخلاقيّة التي تحافظ على سلامة المجتمعات. فلا سبيل لتحقيق التوازن من دون التمسّك بها، إذ إنّ غياب القيم الأخلاقيّة في البحث العلمي، وفي غيره من المجالات، يجرّد الانسان من إنسانيّته، ويفقد البحث سمته الأساسية، ويفرّغه من محتواه الأخلاقي.

إشكالية البحث: تتمثّل الإشكاليّة الرئيسة في السؤال الآتي:

  • إلى أيّ حدّ يؤثّر الاعتماد على تطبيقات الذكاء الاصطناعي في سلامة نواتج البحث العلمي؟
  • ويتفرّع من هذه الإشكاليّة، أسئلة أخرى:
  • إلى أيّ مدى يمكن لتطبيقات الذكاء أن تفيد البحث العلمي، بدلًا من أن تخلق تحدّيات أخلاقيّة؟
  • كيف نتمكّن من تحقيق التوازن بين الإفادة من تطوّر أنظمة الذكاء الاصطناعي في تحسين جودة البحث العلمي، وبين التحدّيات الأخلاقيّة؟
  • إلى أيّ حدٍّ يترك الذكاء الاصطناعي تبعات على البنية المجتمعيّة، والاقتصاد؟

الفرضيات:

  • تطبيقات الذّكات الاصطناعي، من مثل ChatGPT4 وغيرها، تنتج بحوثًا، نواتجها مشكوك في دقّتها، ومصداقيّتها.
  • الاعتماد على تطبيقات الذكاء الاصطناعي في إنجاز البحوث العلميّة يؤدّي إلى تدّني المعايير الأخلاقية المتّبعة في المجتمعات، وميلها أكثر نحو الماديّة.
  • تأثير الركون على تطبيقات الذكاء الاصطناعي في البحث العلمي يفضي إلى فوضى المعايير المهنيّة والبحثيّة.

أهداف البحث:

  • كشف التبعات الأخلاقيّة الناجمة عن الركون إلى تطبيقات الذكاء الاصطناعي في البحث العلمي.
  • تسليط الضوء على خطورة تفويض الذكاء الاصطناعي بديلًا عن البشر في إنتاج البحث العلمي.
  • الإضاءة على الجانب المظلم في أنظمة الذكاء الاصطناعي.
  • التعرفّ إلى الأطر، والتشريعات، والاستراتيجيّات الأخلاقيّة الضامنة لاستخدام الذكاء الاصطناعي، بطرائق تكفل تطوير البحوث، مع الالتزام بالقيم الأخلاقيّة، والمعايير المهنيّة.

الدّراسات السّابقة:

  • الذكاء الاصطناعي وتحدّيات الممارسة الأخلاقيّة، وسيلة سعود، مجلة نماء، المجلّد7، العدد2، الجزائر، 2023

ركزت هذه الدّراسة على مجالات استخدامات الذكاء الاصطناعي، وكيف تعكس أخلاقيّاتها، والتزامها القوانين المتّفق عليها. وتوصّلت إلى أنّ الذكاء الاصطناعي هو تجسيد واقعي للخيال العلمي الذي عمل الإنسان على تنفيذه عمليًّا، ولا سيما الروبوتات التي تحلّ مكان البشر في الوظائف.

  • المعايير القيمية والأخلاقية لاستخدام الذكاء الاصطناعي في البحوث العلمية، طفياني زكرياء، مجلة المعيار، المجلد 29، العدد1 ،الجزائر ، 2024.

هي دراسة ميدانيّة اعتمد فيها الباحث على عينة مؤلفة من 200 مفردة، أخضعها للبحث والتحليل. وتوصّل إلى أنّ الاعتماد على تطبيقات الذكاء الاصطناعي يتنافى مع أخلاقيّات البحث العلمي.

  • الذكاء الاصطناعي وأخلاقيّاته: جمال بو غالم، مجلّة التواصل، المجلّد 30، العدد 1، الجزائر، 2024

توصّل الباحث إلى أنّ اعتماد الذكاء الاصطناعي ولّد مشكلات أخلاقيات، لذلك، لا بدّ من تشريع قوانين وأنظمة ضابطة، تؤطّر الممارسة العمليّة في جوانبها المختلفة.

منهج البحث: اعتمد البحث المنهج التّحليلي الوصفي لتعريف الذكاء الاصطناعي، وأخلاقيّات البحث العلمي، وتحليلها، وصولًا إلى معطيات علميّة. وساعد هذا المنهج على جمْع المادة العلميّة الخاصّة بأنظمة الذكاء الاصطناعي، وإظهار إشكاليّة العلاقة بين أخلاقيّات البحث العلمي، وتطبيقات الذكاء الاصطناعي.

يعدّ المنهج التحليلي الوصفي “محاولة الوصول إلى المعرفة الدقيقة، والتفصيليّة لعناصر مشكلة أو ظاهرة قائمة، للوصول إلى فهم أفضل وأدقّ، أو وضع السياسات والإجراءات المستقبليّة الخاصة به”([2]). ويعتمد هذا المنهج على دراسة الظاهرة كما توجد في الواقع([3]). ويعرّف بأنّه أسلوب من أساليب التحليل المرتكز على معلومات كافية، ودقيقة عن ظاهرة، أو موضوع محدّد، خلال مدّة زمنية معيّنة، وذلك من أجل الحصول على نتائج .

     المحور الأول: الإطار النظري والمفاهيمي

يعيش العالم اليوم ثورة رقميّة يشكّل فيها الذكاء الاصطناعي ركنًا أساسيًّا من أركان تطوّرها، وهو يتقاطع مع العديد من التخصّصات، نظير الرياضيّات، والإحصاء، وعلم النّفس، واللغويّات، والفلسفة. ويعدّ العالم جون ماكارثي([4]) هو من وضع مصطلح الذكاء الاصطناعي في العام 1955، وعرّفه أنّه علم الآلات الذكيّة وهندستها، ولا سيّما برامج الحاسوب الذكيّة.

مصطلحات الدّراسة

الذكاء الاصطناعي: ثمّة العديد من المقاربات التي تسعى إلى تحديد الذكاء الاصطناعي، كغيره من المفاهيم في سائر المجالات، ومن الصعوبة وضْع مفهوم نهائي للذكاء الاصطناعي، نظرًا إلى تطوّره المستمر، وظهور تقنيات جديدة. ولكن، قد يكون بالإمكان -حتى تاريخ كتابة هذه السطور- وضْع مفهوم أوّلي له، كونه فرعًا من فروع علم الحاسوب التي تهتم بإنجاز أنظمة، وبرامج، وتطبيقات قادرة على القيام بعمليات تعدّ ميزة للذكاء الإنساني. وتعمل على تطوير أداء أجهزة الحاسوب لتتعلّم من البيانات، وتنفّذ المهام ذاتيّا، بمعنى آخر “جعل الحواسيب تفكّر… ذات عقول، بالمعنى الكامل والحرفي”([5]).

ويمكن تعريف الذكاء الاصطناعي، بأنّه الذكاء الذي” تظهره أو تحاكيه الرّموز البرمجيّة( الخوارزميات) أو الآلات. يمكن للذكاء الاصطناعي أن يكون جزءًا من نظم تكنولوجيّة: الآلات والروبوتات. ويمكن أن يأخذ شكل برنامج يعمل على الويب”([6]) (الدّردشة الآلية، أو محرّكات البحث)

الأخلاقيّات: تستخدَم كلمة الأخلاقيّات Éthique للتعبير عن المضامين الفكريّة للأخلاق والقانون الأخلاقي([7]). وتوظّف للدّلالة على النظريّة الأخلاقيّة، أو الفلسفة الأخلاقيّة السّائدة في المجتمع، وللتعبير عن نمط نقدي في التّفكير الأخلاقي الذي يتّجه نحو تقييم السلوك الأخلاقي، وشروطه الحيويّة في مجتمع ما. فهي ترمز إلى نوع من التفكير النقدي في النظام الأخلاقي، وفي تجلياته المختلفة.

وجاءت الأخلاقيّات “من علم الفلسفة لتضيء السّبيل إلى اتّخاذ  المعيار والقرار في مواقف علميّة شائكة خلقيًّا، بدءًا من  تداخل خصائص البحث العلمي مع مصالح العالم الشخصيّة، وانتهاءً بتداخلها مع مقتضيات الأمن القومي، مرورًا بتقاطعها مع قدسيّة الحياة، وحقوق الإنسان وكرامته، وبالانتهاكات البيئية، أو بتطبيقات بالغة الخطورة للعلوم البيولوجيّة والوراثة أو الجينات، وفضاء المعلومات المفتوح”([8]).

أخلاقيّات البحث العلمي: مجموعة من الضوابط، والقواعد، والمبادئ، والتوجّهات المحدّدة التي تنظّم التعامل مع العلم وتطبيقاته، وترتبط بأهداف العلم وبنيته المعرفيّة، وطرائق البحث فيه، والمواد، والأدوات، والظواهر، والأحداث، والمشكلات، والقضايا التي يتمّ دراستها، والبحث فيها.”([9])

التجاوزات السّلوكيّة في البحث العلمي: يُقصَد بها اختلاق البيانات أو النتائج، وتزييف الإجراءات البحثيّة، وتحريفها للوصول إلى نتائج محدّدة، لا يدعمها البحث. وتعني أيضًا الغشّ من خلال انتحال أفكار الآخرين، أو إعادة تدوير إنتاج بحثي سبق نشره للشخص نفسه أو لآخرين، أو إغفال ذكر أسماء المشاركين في البحث.

  • البحث العلمي: طريقة يمكن بوساطتها الوصول إلى حلّ مشكلة محدّدة، وذلك من خلال تقصٍّ شامل ودقيق للشواهد والأدلّة التي يمكن التحقّق منها. ويفترض البحث العلمي وجود مشكلة معيّنة، تدفع الباحث إلى دراستها دراسة علميّة، من خلال اتّباع منهج علمي لتفسيرها، والوصول إلى حقيقة جديدة([10]).

النزاهة البحثيّة: الالتزام بمجموعة من القيم الأخلاقيّة العلميّة، والمعايير المهنيّة في ممارسة البحث العلمي، بما يضمن إنجاز النتائج العلميّة البحثيّة، بموثوقيّة ودقّة.

  • التحيّز الخوارزمي: ظاهرة تقنية واجتماعيّة متداخلة ناجمة عن تحريفات غير مقصودة( أو مقصودة)، تظهر في مخرجات أنظمة الذكاء الاصطناعي، نتيجة تراكم انحيازات موجودة مسبقًا في البيانات المستخدَمة، أو في طرائق تصميم الخوارزميّات. للتحيّز أشكال متعدّدة، تتراوح بين الأخطاء التقنية البحتة، والانحيازات المرتبطة بالاختيارات الإنسانيّة عند تطوير النّماذج، ما يجعل من فَهم طبيعة هذه الانحيازات خطوة أساسيّة لفهم انعكاساتها القانونيّة والاجتماعيّة([11]).

الاستدامة: مبدأ أساسي في أخلاقيّات الذّكاء الاصطناعي، تعني تلبية احتياجات الحاضر من دون المساس بقدرة الأجيال القادمة على تأمين احتياجاتها. ونظرًا للتغيرات المناخيّة، والأضرار البيئيّة المستمرة، تلقى الاستدامة أهميّة كبرى.  يبدو من الضروري إدراج الذكاء الاصطناعي في جدول أعمالها لضمان استمرار ازدهار البشرية، والحفاظ على البيئة للأجيال القادمة([12]).

أهمية البحث العلمي: للبحث العلمي أهميّة كبرى تتجلّى في قدرته على الإجابة عن العديد من التساؤلات، وفي إيجاد الحلول للمشكلات المتزايدة التي يفترض على المؤسّسات، والأفراد مواجهتها. ومع ازدياد التحدّيات والمخاطر، تنهض الحاجة الملحّة إلى البحوث العلميّة، أكثر من السابق. ممّا تقدم، ندرك تنافس الدول في مجال البحث العلمي، ودعْم مراكز البحوث، ورصْد الميزانيّات الضخمة لصالحها.

ولكن، ما هي الجوانب المظلمة لأنظمة الذكاء الاصطناعي؟ وكيف تصمم الشّركات العملاقة برامج الذكاء الاصطناعي بمعايير تتنافى والقيم الأخلاقيّة؟ وما مدى تأثير البيانات المضلِّلة على نتائج البحوث العلميّة، وعلى أخلاقيات المجتمع؟

المحور الثاني: التهديد الديستيوبي للذكاء الاصطناعي

يعوّل العدد من الباحثين على الذكاء الاصطناعي لإيجاد حلول للمشكلات الاقتصاديّة، ولإحداث ثورة في الرّعاية الصحيّة. ولكن، في الآن نفسه تتتسرّب المخاوف بسبب قدرته على التوغّل المضمَر في حياتنا، فهو يدخل إلى التفاصيل اليوميّة بطريقة لامرئية، وبات، إلى حدّ ما، جزءا لا يتجزّأ منها. وعلى الرّغم ممّا تسخره شركات التكنولوجيا العملاقة، من إمكانيّات ماديّة وبشريّة، لتلميع صورة الذّكاء الاصناعي، لكن ثمّة تهديد ديستيوبي، مصدره السياسات العميقة لأصحاب “وادي السيليكون”، والبيانات الخاطئة نفسها، وسوء الاستخدام من قبل الباحثين.

وعليه، سأتناول في هذا المحور أبرز المخاطر الأخلاقيّة الناجمة عن استخدام أنظمة الذكاء الاصطناعي، والتّداعيات التي تتركها على نتائج البحوث العلميّة، والتحديّات التي تطاول المستخدمين في الدول العربيّة بشكل خاصّ، وفي سائر الدول عامّة.

  • استغلال الثغرات التقنية

تشير المنظمة العربية للتربية والثقافة والعلوم (ألكسو)([13]) إلى جملة مخاطر وتحديّات تواجه الوطن العربي في استخدام الذكاء الاصطناعي. وقد أشارت في ميثاقها إلى تحدٍّ خاصٍّ تواجهه الدول العربيّة في استخدام الذكاء الاصطناعي، هو نقص السياسات والتشريعات الناظمة، إذ لا تزال الكثير من الدّول العربيّة تفتقر إلى تشريعات تمؤسس استخدام الذكاء الاصطناعي للأفراد والمؤسّسات، ما يؤدي إلى ظهور المشكلات، وإضعاف الخصوصيّة، ويحدّ من فرص الابتكار والاستثمار([14]). بالنّسبة إلى هذه الدول، بشكل عامّ (إذا ما استثنيا الإمارات والمملكة العربيّة السّعودية) فهي تعاني من فجوة تقنية نتيجة نقص البنية التحتيّة الرقميّة. إضافة إلى نقص الكفاءات البشريّة المتخصّصة في مجال الذكاء الاصطناعي، ما يؤخّر من قدراتها على مواكبة التطوّرات، وإيجاد الحلول الناجعة للأزمات.

والجدير ذكره، أنّ تزايد استخدام الذكاء الاصطناعي في العالم العربي يضاعف مخاطر هجمات الأمن السيبراني، إذ يتمّ استغلال الثغرات في الأنظمة المعلوماتيّة لتهديد الأفراد والمؤسّسات، وذلك في ظلّ ضعف بنية أمنية رقميّة في المنطقة العربية بشكل عامّ.  يضاف إلى ما تقدّم، أنّ الدول العربيّة تعدّ مستهلكة للتكنولوجيا، بدلًا من أن تكون ناشطة في تطويرها، وذلك يعود إلى ضعف مساهمتها في البحوث، وإدخال البيانات، إذا ما تمّت مقارنتها بالدول الأجنبيّة.

 

  • المعلومات المضلِّلة

تعمل نماذج الذكاء الاصطناعي على توليد نصوص مكتوبة، من الصعب تمييزها عن تلك التي ينتجها البشر، ما يسمح بإنتاج كميّات كبيرة من الأخبار المزيّفة، والمشاركات حول أي موضوع. وتستطيع الخوارزميّات تجميع صور واقعيّة لأشخاص، وأحداث غير حقيقيّة لم تكن موجودة من قبل([15]). ويحدث أنّ العديد من مستخدمي الذكاء الاصطناعي، يتعاملون مع الأرقام، والأخبار، والتحليلات الصادرة عن تطبيقات الذكاء الاصطناعي، وكأنّها حقائق ثابتة، صادرة عن مراجع علميّة موثّقة، ما يؤدّي إلى تضليل الحقيقة.

وفي سياق المعلومات المضلّلة، أظهر تحليل لألف من منشورات إيلون ماسك أنّ أكثر من 52٪ منها، هي إمّا مضلّلة، أو خاطئة تمامًا. وهذا يسلط الضوء على مشكلة رئيسة: الذكاء الاصطناعي ليس حكمًا موضوعيًّا دقيقًا على الحقيقة، فهو يقدّم البيانات التي دُرِّبه عليها([16]).

وتتضاعف هذه المخاوف مع تطوّر أنظمة الذكاء الاصطناعي، وإمكانيّة قيام روبوتات متطوّرة بإنشاء حسابات على وسائل الواصل الاجتماعي، وبثّ آراء حول أحداث سياسيّة وعالميّة(حسابات يديرها الذكاء الاصطناعي). وأثبتت دراسة أجرتها جامعة نوتردام أنّها استطاعت نشْر معلومات مضلّلة، والتلاعب بالناس.([17]) وبسبب ظاهرة الإدمان على وسائل التواصل الاجتماعي التي تُغذَى بحسابات يديرها الذكاء الاصطناعي، مبنية على معلومات غير دقيقة، والوثوق بعالم الشاشة الزرقاء، بات المستخدمون أشبه بالدمى المتحرّكة التي تديرها حسابات وهميّة، وتستطيع التأثير على تفكيرهم والتحكّم بقراراتهم، وتاليًا بسلوكيّاتهم المعرفيّة والبحثيّة.

يُفهَم مما سبق أنّ وسائل التواصل الاجتماعي المرتبطة بالذكاء الاصطناعي، ساعدت على تعقيد المشكلات الأخلاقيّة بين البشر، وإضعاف عامل الثقة، ودفعتْهم إلى العزلة أمام الشاشة، والجنوح نحو تقليل التواصل الحقيقي،  والاكتفاء بما بات يُعرَف ب”أصدقاء رقميّين” جدد.

ج- الاستعمار الرقمي

في مقال موسوم بالاستعمار الرقمي،([18]) يبحث الكاتب فكرة استخدام التكنولوجيا الرّقميّة للسيطرة على الدّول، ولا سيّما على بلاد الجنوب العالمي. ويشير إلى جمْع بيانات الذكاء الاصطناعي واستخدامها لمراقبة ذوي البشرة السمراء، ووقوعهم ضحايا التمييز العنصري، وكيفيّة التمكّن من الولوج إلى بياناتهم، وانتهاك خصوصياتهم.

إذ تستغل شركات التكنولوجيا العملاقة في دول الجنوب، العمالة “الرخيصة” نتيجة الفقر المدقع، والحاجة إلى المال، لتنظيف خلاصات وسائط التواصل الاجتماعي، وسائر التعليقات، ممّا يُسمّى “المحتوى المزعج”، متجاهلين الأضرار النفسية المؤذية التي يتعرضون لها.([19]) ويزداد استغلال عُمال رقميّين في دول مثل كينيا وفنزويلا والفلبين في سياق المنافسة المتصاعدة بين شركات الذكاء الاصطناعي، مثل “أوبن إيه آي” و”غوغل” و”ميتا”، والشركات الصينيّة، وسط غياب حماية فعّالة من قبل الحكومات المحليّة التي غالًبا ما تكون عاجزة، أو متواطئة مع هذه الاستثمارات([20]).
ويذكر الكاتب، في المقال نفسه، أنّ الاستعمار لم يكن مجرّد عمل عدواني مادي، بل أيديولوجيّة تشكّلت لتبرير الغزو وتهدئة المقاومة.([21]) وبات امتلاك القدرة على تطوير النّماذج اللغويّة الضخمة، والتحكّم في البنى التحتيّة للتكنولوجيا، وتحليل البيانات الهائلة، يعادل امتلاك الموارد الطبيعيّة والنّفوذ العسكري. وهذا ما تتنافس على امتلاكه الدّول في الحروب النّاعمة.

بناء على ما سبق ذكره، يمكن تفسير تبعيّة بلاد الجنوب العالمي التي تفتقر إلى امتلاك شركات تكنولوجيّة، أو مساهمات وازنة في “وادي السيليكون”، وتاليًا، لا تؤثّر في سياسات شركات الذكاء الاصطناعي للهيمنة الاقتصاديّة والماليّة والثقافيّة على العالم، وإن كانت تروّج من خلال بياناتها “المنحازة” لخطابات تدّعي فيها الحفاظ على العدالة، والمساواة، والتنوّع الوجودي، وحماية البشرية.

ولا يتوقّف الأمر عند موضوع استغلال  العمالة الرقميّة الرخيصة، بل تتعدّد سبل ما يُسمّى ب”الاستعمار الرقمي”، ولعلّ من أبرزها الاستعمار من خلال التعليم، إذ تعمد شركة ميكروسوفت إلى تدريب المعلّمين في مناطق الجنوب العالمي على كيفيّة استخدام برامج Microsoft  في أنظمة التعليم؛ فهي قدّمت إلى مؤسّسات تعليميّة أجهزة لوحيّة، تعمل بنظام windows وبرامج Microsoft. وصُمِّم برنامج Data Driven District  المخصَّص لجمع البيانات (الجنس، الدين، الميول السياسية، الاهتمامات…) العائدة إلى المعلّمين والطلّاب([22]).

إضافة إلى الاستعمار من خلال التعليم والذي تؤثر تداعياته على تصميم البيانات، ومخرجاتها في البحوث العلمية، ثمّة استراتيجيّات معتمدَة لاستغلال الذكاء الاصطناعي  لتغيير نتائج اقتصاديّة وسياسيّة، وتجلّى هذا الأمر من خلال السيطرة على المستهلكين، واستخدام الهواتف الذكيّة لتقديم بيانات التفاعلات الرقميّة([23])، وتغيير نتائج انتخابات الرئاسة الأميركيّة في العام 2016، من خلال استعمال بيانات مستخدِمي فيسبوك، من دون موافقتهم، وهذا يعدّ جرمًا فاضحًا، وتزويرًا لنتائج الانتخابات، وانتهاكًا فاضحًا للحريّة والديمقراطيّة، ومصادرة علنيّة لآراء المقترعين.
د-  تحيّز البيانات:

ينتج عن تحيّز البيانات مشكلات أخلاقيّة واجتماعيّة؛ فعندما يصدر الذكاء الاصطناعي نتيجة، أو قرارًا، أو حكمًا على فرد، أو مجموعة استنادًا إلى قاعدة بيانات موسومة بالتحيّز، فمن الطبيعي أن تكون النتيجة منحازة، أو غير عادلة، أو خاطئة.

قد ينشأ التحيز في مرحلة التصميم، والاختبار، والتّطبيق.  ويظهر التحيّز في مجموعة البيانات التي سيُدَّرب عليها، فقد تكون غير كاملة. وفي المجموعة التي تنشئ الخوارزميّة، فمن الممكن ألّا تمثّل البيانات السكان كافّة(قائمة على رجال أميركيين بيض). وقد تتحيّز البيانات ضد مجموعات معينة: في الطب، البيانات تُجمع غالبًا من المرضى الذّكور([24]). تعكس البيانات المستخدمَة في تدريب الذكاء الاصطناعي، في أكثر الأوقات، التحيّز الموجود في المجتمع. على سبيل المثال، إذا كانت البيانات تاريخيّة، فهي تُظهر تمييزًا ضد فئة معيّة( الفلسطينيين، العرق الأسود…) وكذلك نماذج الذكاء الاصطناعي، تتعلّم هذا التمييز، وتتكرّره.

التحيّز الخوارزمي: قد تؤدي الخوارزميّات نفسها إلى نتائج متحيّزة نتيجة طريقة تصميمها، وإن كانت البيانات الأساسيّة غير متحيّزة([25]). فضلًا عن تحيّز البيانات وآثارها السّلبيّة على أخلاقيّات البحث العلمي، تعزّز الخوارزميّات فرص التمييز بين البشر(المحور الثاني) يطرح هذا الموضوع جدلًا على صعيد الحريّات، واحترام الخصوصيّة، فالقرارات المبنيّة على تحيّز خوارزمي تؤدّي إلى تمييز، وانتهاك مبدأ المساواة. وإن كانت سياسة الذكاء الاصطناعي الظاهريّة تشير إلى الحياد، لكن جمْع البيانات وتحليلها، يعمّق ظاهرة التحيّز، ولا سيّما ضدّ دول الجنوب، وضدّ جماعات محدّدة ( العرق الأسود، سكان دول معيّنة، أجناس محدّدة،) ما يطعن في مصداقيّة هذه الخوارزميات، وحياديتها، وشفافيتها([26]).

ولعلّ من أبرز أهداف البحث العلمي كشْف الحقيقة. وعلى الباحث التحلّي بالموضوعيّة، هذه المعايير تتعارض مع ما تفضي إليه تطبيقات الذكاء الاصطناعي، فالبيانات التي يقدّمها، غالبًا، ما تتنافى مع المصداقيّة، فخوارزميّات الذكاء الاصطناعي ترتبط بالتفاوت، وازدواجيّة المعايير، وتتّسم بالتحيّز.

ويبدو أنّ الركون إلى تطبيقات الذكاء الاصطاعي يؤثّر سلبًا على قيمة البحث العلمي: تطبيق  chat gpt4  على سبيل المثال، يُصنّف من الأدوات المساعدِة على تحليل البيانات، وإنجاز البحوث بسرعة، وكذلك على الوصول إلى مصادر المعلومات العلميّة، وتوفير مراجع بلغات متعدّدة، وتلخيص الأبحاث والمقالات. بيد أنّ المداومة عليه، تحدّ من قدرات العقل البشري على التفكير، وتعطّل إمكانيّات البحث والتأمّل، وتاليًا، يتخلّى الفرد عن هذا الدور إلى تطبيقات الذكاء الاصطناعي، ويتكاسل عن تنمية ميوله، وقدراته على البحث (وهي من أساسيّات أغراض البحث)  ويجعله يميل إلى الاتكاليّة في إنجاز البحث بأقل جهد، ما ينعكس على قيمة البحث، ونتائجه([27]).

إضافة إلى ما سبق، فإنّ الاعتماد على هذا التطبيق أو غيره، يفضي إلى الوقوع في الأخطاء، وانتهاك حقوق الملكيّة، والنشر، والخصوصيّة العلميّة. على الرّغم من انتشار هذه التطبيقات في الأوساط الأكاديميّة، لكن ثمّة الكثير من علامات الاستفهام التي تُطرح حول البحوث المستندة عليها، وما مدى مصداقيّتها وشفافيّتها. وحريّ القول، إنّ استخدام تطبيقات الذكاء الاصطناعي في ميدان البحث العلمي يؤدّي إلى غياب شحصيّة الباحث، وتجميد قدرته على الابتكار والإبداع، ومع مرور الوقت يجعل منه مجرّد ناقل لجزء من المعرفة، تبقى صحّتها موضع شكّ.

ولعلّ الخشية في المستقبل القريب ليست من جعْل الآلات تنفّذ المهمّات وتمتّعها بالقدرة على التعلّم، بل من عدم قدرتها على تجنّب المحتوى المرفوض أخلاقيًّا واتخاذها القرارات الخاطئة([28]).

وفي ظل غياب الأطر القانونية الناظمة للذكاء الاصطناعي وبياناته، يتعمّق انحياز الخوارزميّات، واستنادًا إلى تلك البيانات غير الدقيقة، المفتقرة إلى النزاهة، تشهد الوظائف في المجالات كافّة موجةً من التمييز. ويساهم بذلك الذكاء الاصطناعي في تعميق الشرخ بين أفراد المجتمع، وفي الطعن بمصداقيّة القرارات. ولكن، تبقى علامة الاستفهام مطروحة حول نوعيّة البيانات التي تُدخَل، ومدى دقّتها، ومراعاتها حقوق الأفراد، من دون تمييز الجنسين، وتقديم المعلومات بطريقة موضوعيّة علميّة، بعيدًا من أي أحكام مسبقة، متّخذَة استنادًا إلى آراء واضعي البيانات، أو أهوائهم في بعض الحالات([29]) .

الالتزام بأخلاقيات البحث العلمي له أهميّة قصوى لضمان جودة نتائج البحث العلمي. وهي مسؤوليّة مشتركة تقع على عاتق كلّ من الباحث، والمؤسسّات الأكاديميّة، والعلميّة، والمجتمع المدني، على حدّ سواء. ويؤدي التخلّي عن أخلاقيّات البحث العلمي إلى عواقب لا تحمد عقباها. فالالتزام بها يقلّل من حدوث الممارسات الخاطئة، وينشر التنافس الشريف بين الباحثين، ويعزّز الارتقاء بالبحث العلمي، ويرفع مستوى جودة النواتج العلميّة. وهذا ما يدفعنا إلى البحث، في المحور الثالث: القيم الأخلاقيّة في البحث العلمي، الأطر والاستراتيجيّات.

 المحور الثالث: القيم الأخلاقية في البحث العلمي: الأطر والاستراتيجيّات

قبل تطوير الذكاء الاصطناعي بمدّة طويلة، وضعت المجتمعات قواعد أخلاقيّة، والتزمت بها بشكل متفاوت. كانت سلطة تلك القواعد، في مواضع كثيرة، أشدّ فعاليّة من النصّ القانوني. أمّا في ما يتعلّق بالمواثيق الأخلاقيّة لاستخدام الذكاء الاصطناعي الصادرة عن الجهات الدوليّة([30])، وإن لم يكن لها مفاعيل “قانونيّة تطبيقيّة جزائيّة”، لكن، يمكن عدّها خطوة لوضع أسس لنصوص قانونيّة لتنظيم أنظمة الذّكاء الاصطناعي في المجالات كافّة، بدءًا من المخطّطين والمبتكرين والمبرمجين والمطورين، وصولًا إلى المستخدمين.

ومع تعاظم قدرة الذكاء الاصطناعي على اقتحام تفاصيل الحياة اليوميّة، بطريقة لامرئيّة، والتوغّل بصمت في مختلف جوانب المفاصل الأساسيّة، واتّخاذ القرارات، وإصدار النواتج التي تتّسم، غالبًا، بالتحيّز، وانعدام العدالة، وتُعمّق الفروقات بين البشر، وتؤثّر على تكوين الهويّة الأخلاقيّة، بات من الواجب تضافر جهود الباحثين لتأسيس مجتمع يتمسّك بالقيم الأخلاقيّة، ويتبنّاها سلوكًا ونهجًا في الحياة اليومية، والعلاقات الاجتماعيّة، وأماكن العمل، والدراسة، والبحث العلمي.

وإذا كان بإمكان الذكاء الاصطناعي أن يصبح أكثر ذكاءً، ممّا هو عليه اليوم، فهل يمكن الافتراض أنّه يستطيع تطوير قدراته على التفكير الأخلاقي، وأن يتعلّم كيفيّة اتّخاذ القرارات بشأن القضايا الأخلاقيّة؟ وما يثير المخاوف في هذا الجانب، أنّ ثمّة اتجاهًا يدعو إلى منْح الآلة نوعًا من الأخلاق البشريّة، وتزويد الذكاء الاصطناعي بالمبادئ، والادّعاء، أنّه ربما ستكون الآلات أفضل من البشر في الوصول إلى قرارات أخلاقيّة، لأنّها أكثر عقلانيّة، ولا تنجرف وراء العواطف([31]). ولا ننسى، أنّ قرارات الخوارزميّات، اليوم، لها عواقب أخلاقيّة وخيمة( الجنائيّة، الماليّة، العسكريّة الاجتماعيّة،…)

ثمّة تحديّات تواجه مستخدمي الذكاء الاصطناعي، لعلّ من أبرزها، كيفيّة تحقيق التوازن بين المحافظة على الابتكار، والتمسّك بالمبادئ، والقيم، والمعايير الأخلاقيّة في الآن نفسه، ولا سيّما في ظلّ وجود وجود جماعة تنادي بما يسمّى ب”تجاوز الإنسانيّة”، والدعوة إلى جعْل الإنسان أقلّ عرضة للمرض، وأطول عمرًا، وحتّى خالدًا إن أمكن. فالآلة البشرية، على حدّ تعبير مناصري هذا الاتجاه تحتاج إلى الترقية، وإلّا سيخاطر البشر بالبقاء الجزء المتخلّف من غير الكفء بشكل متزايد. يتساءل البعض، لم لا نتخلّص تمامًا من الأجزاء البيولوجيّة، ونصمّم كائنات غير عضويّة؟ يعتقد هؤلاء، أنّ عليهم المضي قدمًا نحو نوع جديد من الإنسان يتمّ تحسينه بوساطة العلم والتكنولوجيا. ممّا تقدّم، يظهر تهديد الذكاء الاصطناعي للبشرية والإنسانية جمعاء.

ونظرًا لأهميّة أخلاقيّات الذكاء الاصطناعي، نصّت المادة 106 من توصية اليونيسكو، أنّ على الدول الأعضاء وضْع برامج دراسيّة لأخلاقيّات الذكاء الاصطناعي لمستويات التعليم بمراحلها كافّة، بما يتوافق مع برامجها، وتقاليدها التربويّة، والاجتماعيّة، والوطنيّة. وكذلك وجوب إعداد دروس الكترونيّة وموارد رقميّة لتعليم أخلاقيّات الذكاء الاصطناعي، باللغات المحليّة، ومنها لغات الشعوب الأصليّة([32]).

ولكن، هل نسلّم بتحيّز البيانات، والقرارات غير العادلة المنبثقة عن توصيات الذكاء الاصطناعي، وبانتهاك الخصوصيّة، والتعدّي على الملكيّة، أم يفترض تفعيل العمل بالأطر والتشريعات الأخلاقيّة التي تحكم استخدام أنظمة الذكاء الاصطناعي، حرصًا على سلامة البنية المجتمعيّة، والقيم الأخلاقيّة، ومستوى نواتج البحث العلمي؟

انطلاقًا مما تقدّم، نورد فيما يأتي مجموعة من أخلاقيّات الذكاء الاصطناعي التي نصّت عليها المواثيق، والأطر، والتّوصيات الدّوليّة([33])، والاستراتيجيّات الداعمة لتطبيقها:

  • احترام حقوق الملكيّة الفكريّة للأفراد الذين طوّروا تطبيقات تستخدم في البحث العلمي.
  • عدم تزوير أو تحريف النتائج، ونشْرها بشكل شفّاف وصحيح.
  • النزاهة العلميّة، وعدم التلاعب بالبيانات، للوصول إلى هدف أفضل.
  • السريّة، وعدم الكشف عن معلومات تم التوصل إليها من خلال استخدام تطبيقات الذكاء الاصطناعي، من دون الحصول على موافقة خطيّة من أصحابها المعنيين.
  • الاحترام: عدم استخدام الذكاء الاصطناعي لانتهاك حقوق الأفراد، أو بشكل يتعارض مع القيم الاجتماعيّة والأديان.
  • الالتزام بالقوانين والتشريعات المحليّة والدوليّة المتعلّقة بالبحث العلمي، واستخدام الذكاء الاصطناعي والتي تضمن حقوق الأفراد، والجماعات.
  • موثوقيّة البيانات التي يستخدمها الذكاء الاصطناعي في أثناء كتابة البحث العلمي: لا بدّ من التأكّد من دقّة البيانات، ومصادرها الصحيحة، والإشارة إليها، وتوثيقها، بعد التأكد من صوابيتها.
  • عدم الاعتماد على تطبيقات الذكاء الاصطناعي في إعادة صياغة المعلومات أو تلخيصها.

وعليه، استعرض في هذا السّياق أبرز الاستراتيجيّات لتعزيز العدالة والإنصاف في أنظمة الذكاء الاصطناعي:

  • تنويع البيانات: ضمان أن تكون البيانات المستخدمة في تدريب الذكاء الاصطناعي متنوّعة، وتشمل جميع فئات المجتمع.
  • اختبار التحيّز: اختبارات دائمة لكشف وجود تحيّز في أنظمة الذكاء الاصطناعي.
  • المراجعة المستمرّة: مراجعة أنظمة الذكاء الاصطناعي بشكل مستمرّ، للتأكّد من أنها تعمل بطريقة عادلة.
  • التنويع في فرق التطوير: تنوُّع فرق تطوير الذكاء الاصطناعي، ما يقلّل التحيّز غير المقصود.
  • الخصوصيّة:

سهّلت أنظمة الذكاء الاصطناعي عملية الولوج إلى بيانات الأفراد من دون إذنهم الشخصي، ومن دون معرفتهم، حيث يتمّ التلاعب ببياناتهم لأغراض متعدّدة، ما يعدّ انتهاكًا واضحًا لخصوصيّتهم.

يهدف مبدأ الخصوصية الى احترام الخصوصية، وحماية البيانات عند استخدام الذكاء الاصطناعي. يفترض ذلك توخّي حوكمة للبيانات بشكل فعّال، وإدارة البيانات المستخدَمة والمنتَجة([34]). تعمل تطبيقات تعلّم الآلة التي تتعامل مع البيانات الضخمة على جمْع المعلومات الشخصيّة للأفراد والمؤسسات، واستخدامها عبر الهواتف الذكيّة، ووسائل التواصل الاجتماعي. وغالبًا، يُتلَاعَب بالبيانات التي جُمِعت، واستخدامها من قبل طرف آخر، في سياق مختلف، من دون علم أصحابها. مع العلم، أنّ جمْع هذه البيانات وتحليلها ومشاركتها، ينبغي أن يُوافق أصحابها عليها، واحترام خصوصيّتهم، وحقّهم في معرفة الوجهة التي تستخدمها، والاعتراض على كيفيّة استثمارها، أو مشاركتها.

يُذكَر، أنّ برمجيات الذكاء الاصطناعي وتطبيقاته، قد تتمكّن، في أحيان كثيرة، من انتهاك خصوصيّة البيانات، أو انتحال علمي لأجزاء من بحوث علميّة. ولتفادي وقوع مثل هذه الأضرار:

يفترَض حماية الأفراد، ولا سيّما الأطفال الذين يجرون محادثات مع دمى موصولة بنظام تكنولوجي مدعوم بالذكاء الاصطناعي، أو الاشخاص الذي لا يتمتعون بقوى عقليّة([35]) “طبيعية” أو “كاملة”. هؤلاء، على الأرجح، أكثر عرضة للخطر، ويمكن لأنظمة الذكاء الاصطناعي أن تتلاعب بهم، وتجمع بيانات عنهم، وعن عائلاتهم.

استنادًا إلى ما تقدّم، ثمّة استراتيجيّات([36]) لتعزيز الخصوصيّة، وأمن البيانات في الذكاء الاصطناعي، نذكر منها:

  • تصميم الخصوصيّة: دمْج اعتبارات الخصوصيّة في عملية تصميم أنظمة الذكاء الاصطناعي.
  • تقييم تأثير الخصوصيّة: إجراء تقييم بشكل منتظم لتأثير الخصوصيّة للتخفيف من المخاطر المتوقّعة.
  • تقليل البيانات: محاولة جمْع الحد الأدنى من البيانات، واستخدامها لتحقيق الغرض المنشود.
  • إخفاء الهوية والتشفير: ضمان استخدام تقنيات موثوقة لإخفاء الهوية، وحماية البيانات الشخصيّة.
  • الامتثال التنظيمي: الالتزام التام بالقوانين المتعلّقة بحماية البيانات.
  • مبدأ الإحسان ينصّ على أن يكون الذكاء الاصطناعي مفيدًا للبشر([37]).
  • مبدأ الحرية والاستقلاليّة: قدرة الشخص على اتّخاذ القرارات بشأن رغباته وأهدافه، وهي قيمة أساسيّة للمواطن في المجتمع الديمقراطي، فمن المهمّ ألا يضرّ استخدام الذكاء الاصطناعي بهذه القيمة. وحفْظ هذا المبدأ في سياق الذكاء الاصطناعي واحترامه يعني إيجاد التوازن بين السلطة الذاتيّة التي نحتفظ بها لأنفسنا على اتّخاذ القرار، وتلك التي نمنحها للذكاء الاصطناعي([38]).

أضف إلى ضمان العدالة، وتعزيز الشفافيّة، وحماية الخصوصيّة، وأمن البيانات، وضمان الموثوقيّة، والأمان، يأتي تحقيق الاستدامة بمعنى تلبية احتياجات الحاضر، من دون المساس بقدرة الجيل القادم على تلبية احتياجاته( تدريب، وتشغيل نماذج الذكاء الاصطناعي يستهلك كميات كبيرة من الطاقة، والمياه العذبة).

من أبرز استراتيجيّات تعزيز الاستدامة، نذكر:

  • تحسين كفاءة الطاقة: تطوير أجهزة أكثر كفاءة في استخدام الطاقة، والاعتماد على مصادر الطاقة المتجدّدة لتشغيل مراكز البيانات.
  • تقييم الأثر البيئي: تقييم مستمر للأثر البيئي لتقنيات الذكاء الاصطناعي، لوضع الخطط البديلة.
  • الاستثمار في التعليم والتدريب: لضمان مساعدة العاملين على التكيف مع المتغيّرات الناتجة عن إدخال الذكاء الاصطناعي.
  • تعزيز الحوكمة الرشيدة: تطوير الأطر القانونيّة لضمان أمن استخدام الذكاء الاصطناعي.

استنادًا إلى ما سبق، يتنيّن أنّ الالتزام بالأطر الأخلاقيّة لاستخدام الذكاء الاصطناعي ضرورة ملحّة لضمان أمن البيانات، ودقّة نواتج البحث العلمي، والمحافظة على الحقوق المرعيّة، والعدالة، والشفافيّة. ويترتّب على إهمالها أو الإخلال بها تداعيات آنية ومستقبليّة، ويكرّس نمطًا منافيًا لما تدعو إليه الطبائع، والقيم الإنسانيّة الخيّرة.

هذه التشريعات والأطر الأخلاقيّة وسواها، وإن لم ترقَ إلى مستوى القوانين، لكن، يبقى لها سلطة أخلاقيّة، واجتماعيّة، وقوّة مضمَرة في تشكيل وعي الشعب، وبناء هويّته، وضمان الحفاظ على السلوكيات السليمة، بعيدًا من سياسة الردع والعقاب. كما تحفّز على بناء مجتمع متوازن، يحقّق كل فرد فيه قيمته، ومكانته، ويساهم في تطوير حياة البشريّة، بما يحفظ نماءها، واستدامتها.

الخاتمة : يشهد العالم طفرة رقميّة تتجلّى معالمها في مختلف جوانب الحياة، ولا سيّما مع تغلغل أنظمة الذكاء الاصطناعي بطريقة غير مباشرة إلى أماكن العمل، والدراسة، والصحّة، والسياسة، والاقتصاد، والترفيه، وتأثيرها على العلاقات الاجتماعيّة، وبنية التفكير، والمعايير المهنيّة، والأخلاقيّة، التي تحكم العمل البحثي. أظهرت نتائج هذا البحث، أنّ استخدام الاصطناعي، من دون مراعاة القيم الأخلاقيّة له تداعيات خطيرة نتائج البحوث، من أبرزها:

  • استخدام أنظمة الذكاء الاصطناعي بعيدًا من ضوابط قانونيّة يؤدّي إلى انتهاك الخصوصيّة، وحقوق الملكيّة.
  • البحوث المستندة إلى تقنيات الذكاء الاصطناعي غالبًا ما تكون نواتجها منحازة إلى فئة على حساب أخرى.
  • التقارير المنتجَة عبر أنظمة الذكاء الاصطناعي تتضمّن نسبة عالية من المعلومات المضلّلة، يسهل بموجبها التلاعب بالرأي العام.
  • الذكاء الاصطناعي يُصدِر نسبة عالية من النواتج الخاطئة التي تتعارض مع البحث العلمي.
  • الركون إلى جمع بيانات الذكاء الاصطناعي يؤسّس لمجموعات تتخلّى عن الإبداع، لصالح رقمنة تفتقر إلى الميثاقيّة الأخلاقيّة.
  • استغلال شركات التكنولوجيا العملاقة للعمالة الفقيرة في دول الجنوب العالمي من دون مراعاة الجانب الأخلاقي.
  • سياسات الذكاء الاصطناعي تؤثّر في تغيير البنية العميقة للمجتمعات، وتهدّد القيم الأخلاقيّة.

التوصيات:

  • سَنّ قوانين دوليّة موجبة، ومنصِفة، وناظمة لاستخدام الذكاء الاصطناعي في البحث العلمي.
  • وضْع مناهج تدريسيّة لأخلاقيّات الذكاء الاصطناعي، للمراحل الدراسيّة كافّة، في جميع الدول.
  • العودة إلى التربية المجتمعيّة المحافظة على القيم الأخلاقيّة والإنسانيّة.
  • الالتزام بالتوصيات والأطر الأخلاقيّة لاستخدام الذكاء الاصطناعي الصادرة عن الجهات المحليّة والدوليّة.
  • متابعة البحوث العلميّة من قبل لجان علميّة ذات نزاهة ومصداقيّة.

وثمّة سؤال يُطرَح: أيّ مستقبل نريد؟ لن تستطيع البشرية الإجابة عن أسئلتها بالعلم وحده، إنّما هي في حاجة دائمة إلى الفلسفة والأخلاق. قد يتوصّل العلم إلى اجتراح حلول للمشكلات التقنية التي تعتري تطوير الذكاء الاصطناعي ليصبح قادرًا على اتّخاذ القرار ذاتيًّا. ولكن، مهما بلغ تطّور الذكاء الاصطناعي، ما نحتاج إليه، أوّلًا وأخيرًا، هو بناء الإنسان، الباحث، المسؤول، المتمسّك بالقيم الأخلاقيّة.

المراجع  العربيّة

1.أحمد الرفاعي، مناهج البحث العلمي، تطبيقات إداريّة واقتصاديّة، دار وائل للنشر، عمان، 1998.

2.سمير الحكيم، أخلاقيات الذكاء الاصطناعي، مكتبة نور الالكترونيّة، لا ت.

 3.ماهر أسعد بكر، الذكاء الاصطناعي والمعلومات المضلّلة، منشورات فلّلة بوك، 2023.

  1. مجموعة من الباحثين، دليل أخلاقيّات استخدام تطبيقات الذكاء الاصطناعي في مجال البحث العلمي، سوهام للنشر والتوزيع، الجزائر، ط 1، 2023.
  2. 5. محمد سرحان المحمودي، مناهج البحث العلمي، دار الكتب، صنعاء، ط 3، 2015.
  3. محمد سليمان المشوخي ، تقنيات ومناهج البحث العلمي، دار الفكر العربي القاهرة، ط 1، 2002.

7.منى توكل السيد، أخلاقيّات البحث العلمي، قسم العلوم التربويّة، جامعة المجمعة، مصر، 2013.

المراجع الأجنبية:

8.Anderson, M., and And Anderson,S., Machine Ethics, Cambridge university press,  2011.

9.C. S. Wikramasinghe, D.L.Marino,L.J.Grandio,and M.Manic,2020,”Trustworthy AI Development Guidlines for human system interaction,” 13h international conference on human system interaction, Tokyo, Japan, 2020.

 

10.John Haugeland, Artificial Intelligence : The Very Idea, A Bradford Book The MIT Press, London, England,1985,

11.Lama H. Nazer , Razan Zatarah, Shai Waldrip, Janny Xue Chen Ke, Mira Moukheiber, Ashish K. Khanna, Rachel S. Hicklen, Lama Moukheiber, Dana Moukheiber, Haobo Ma, Piyush Mathur, “Bias in artificial intelligence algorithms and recommendations for mitigation” plos digital health, 2023.

 

12.L.Floridi, and J. Cowls, A Unified Framework of Five Principles for AI in Society”,Ethics, Govermance, and policies in artificial intelligence,L Florid,Ed Cham: Springer international Publishing, vol 144,2021.

13.L.Floridi et al,”AI4 People-An Ethical Framework for a good AI Society: OPPORTUNITIES,Risks,Principles, and Recommendations,” Minds&Machines,vol. 28,no.4, 2018.

  1. 14. Marwa Merrouche, Djaouida Ghanem, john Mccarthy,Pioner and innovator of Arctificial intelligence, Journal of el hikma for philosophical studi, Volume 13, Numéro 1, 2025-02-01

 

15.Michael Kwet, Digital Colonialism, US empire and the new imperialism in the Global South,Race&Class, vol60,2019.

16.Empire of AI Dreams and nightmares in Sam Altman s Open AI , karen Hao, SMT studies centre,2025.

17.R.Nishant, M. Kennedy, and Corbett, J. Artificial intelligence for sustainability: Challenges, opportunities, and a research agenda. International Journal of Information Management,vol 53,2020.

18.Ricoeur, P., Avant la loi morale, l’éthique , Encyclopedia Universalis, Les enjeux, 1988.

19.S.Jain, M.Luthtra, S,Shamma, and M.Fatima,”Trustworthiness of Artificial Intelligence” in 2020, 6th international conference on advanced computing and communication systems, Coimbatore, India,Mar.2020.

 

المراجع المعرّبة

  1. 20. مارك كوكلبيرج، أخلاقي~ات الذكاء الاصطناعي، تر. هبة غانم، سلسلة المعارف الأساسيّة، مؤسسة هنداوي، 2024.

المجلّات والجرائد

21.جمال بو غالم، الذكاء الاصطناعي وأخلاقيّاته مجلة التواصل، المجلّد 30، العدد 1، الجزائر، 2024.

22.حفيظة بلعيد، الذكاء الاصطناعي والمعلومات المضلّلة، العربي الجديد، لندن، 4-5-2024.

  1. طفياني زكرياء، المعايير القيميّة والأخلاقيّة لاستخدام الذكاء الاصطناعي في البحوث العلميّة، مجلة المعيار، المجلّد 29، العدد1 ،الجزائر، 2024.
  2. منية، عياد، أخلاقيّات البحث العلمي في العلوم الإنسانيّة والاجتماعيّة، مجلة دراسات في علوم الإنسان والمجتمع، جامعة محمد الصديق بن يحي بجيجل، المجلّد 5، العدد 1، 2022.
  3. نازك بدير، في سباق مع الذكاء الاصطناعي، جريدة الصباح، 18-5-2023.
  4. نازك بدير، الذكاء الاصطناعي إلى أين، جريدة الصباح، 2-5-2024.
  5. وسيلة سعود، الذكاء الاصطناعي وتحدّيات الممارسة الأخلاقية، مجلة نماء، المجلّد7، العدد2، الجزائر، 2023.

المواقع الالكترونيّة

  1. التوصية الخاصّة بأخلاقيّات الذكاء الاصطناعي، منظّمة “اليونسكو”2021،.
  2. مبادئ أخلاقيّات الذكاء الاصطناعي السعودي لعام 2023.
  3. الميثاق الكوري الجنوبي لأخلاقيّات الذكاء الاصطناعي لعام 2007.
  4. الميثاق الوطني لأخلاقيّات الذكاء الاصطناعي الأردني لعام 2022.

32.الميثاق المصري للذكاء الاصطناعي للعام 2023.

  1. ميثاق الألكسو لأخلاقيّات الذكاء الاصطناعي، إدارة تكنولوجيا المعلومات والاتصال،يونيو، تونس،2025 www.alesco.org/publicationsميثاق-الالكسو-للذكاء-الاصطناعي-isbn.pdf
  2. 34. نداء روما لأخلاقيّات الذكاء الاصطناعي 2020.

             35.عدنان السباعي، مجلة القانون والأعمال المغربيّة droitentreprise.com

  1. مفارقة الحقيقة: الذكاء الاصطناعي، المعلومات المضللة، ودور البريد الإلكتروني في العصر الرقمي | by Dmail Network – Arabic 🇸🇦 | Medium

37.نموذج أخلاقيّات البحث العلمي، عمادة البحث العلمي، جامعة القصيم، 2023، rd.qu.edu.sa/laravel-filemanager/files/shares

 

[1]– أستاذة محاضر مع الجامعة اللبنانيّة- كليّة الآداب والعلوم الإنسانيّة-بيروت – لبنان.

Lecturer at the Lebanese University – Faculty of Arts and Humanities – Beirut – Lebanon.Email: bdeirnazik@gmail.com

[2] – أحمد الرفاعي، مناهج البحث العلمي، تطبيقات إدارية واقتصادية، دار وائل للنشر، عمان 1998، ص .122

[3] – محمد سليمان المشوخي ، تقنيات ومناهج البحث العلمي، دار الفكر العربي، القاهرة، ط 1، 2002، ص 45.

[4]  -Marwa Merrouche, Djaouida Ghanem, john Mccarthy,Pioner and innovator of Arctificial intelligence, Journal of el hikma for philosophical studi, Volume 13, Numéro 1, 2025-02-01,P. 2.

[5] -John Haugeland, Artificial Intelligence : The Very Idea, A Bradford Book The MIT Press, London, England,1985, p 15.

[6]  – مارك كوكلبيرج،أخلاقيات الذكاء الاصطناعي، تر. هبة غانم، سلسلة المعارف الأساسية، مؤسسة هنداوي، 2024، ص. ص52.-54

[7] -Ricoeur, P., Avant la loi morale, l’éthique , Encyclopedia Universalis, Les enjeux, 1988, p. 42-45

[8] – منى توكل السيد، أخلاقيات البحث العلمي، قسم العلوم التربوية، جامعة المجمعة، مصر، 2013، ص 15.

[9] – منية، عياد، أخلاقيات البحث العلمي في العلوم الانسانية والاجتماعية، مجلة دراسات في علوم الإنسان والمجتمع، جامعة محمد الصديق بن يحي بجيجل، المجلّد 5، العدد 1، 2022، ص 29.

[10] -محمد سرحان المحمودي، مناهج البحث العلمي، دار الكتب، صنعاء، ط 3، 2015، ص 13.

[11] -عدنان السباعي، مجلة القانون والأعمال المغربية.droitentreprise.com

[12]R.Nishant, M. Kennedy, and Corbett, J. (2020). Artificial intelligence for sustainability: Challenges, opportunities, and a research agenda. International Journal of Information Management, vol 53, pp 102-104.

[13]– ميثاق الألكسو لأخلاقيات الذكاء الاصطناعي، إدارة تكنولوجيا المعلومات والاتصال،  يونيو  تونس، 2025 www.alesco.org/publicationsميثاق-الالكسو-للذكاء-الاصطناعي-isbn.pdf

[14]  – ميثاق الألكسو ص ص 13-14.

[15]ماهر أسعد بكر، الذكاء الاصطناعي والمعلومات المضللة، منشورات فللة بوك، 2023، ص 10.

[16] مفارقة الحقيقة: الذكاء الاصطناعي، المعلومات المضللة، ودور البريد الإلكتروني في العصر الرقمي | by Dmail Network – Arabic 🇸🇦 | Medium[16]

[17] – حفيظة بلعيد، الذكاء الاصطناعي والمعلومات المضللة، العربي الجديد، لندن، 4-5-2025.

[18]– Michael Kwet, Digital Colonialism, US empire and the new imperialism in the Global South,Race&Class,2019, vol60(4).

[19] -Michael Kwet, Digital Colonialism, US empire and the new imperialism in the Global South,Race&Class,2019, vol60(4) p.8-9-12.

[20]– Empire of AI Dreams and nightmares in Sam Altman s Open AI , karen Hao, SMT studies centre,2025.

[21] -Michael Kwet,p 16

[22] -Michael Kwet, p 13

[23] – مارك كوكلبيرج،  أخلاقيات الذكاء الاصطناعي ص 73

[24]  – مارك كوكليبرج، أخلاقيات الذكاء الاصطناعي، مرجع سابق، ص.91.

[25]  – سمير الحكيم، أخلاقيات الذكاء الاصطناعي، مكتبة نور الالكترونية، ص 8.

[26] – عدنان السباعي مجلة القانون والاعمال الدوليةwww.droitentreprise.com

[27]– Lama H. Nazer , Razan Zatarah, Shai Waldrip, Janny Xue Chen Ke, Mira Moukheiber, Ashish K. Khanna, Rachel S. Hicklen, Lama Moukheiber, Dana Moukheiber, Haobo Ma, Piyush Mathur, “Bias in artificial intelligence algorithms and recommendations for mitigation” plos digital health 2023. p.1.

[28] – نازك بدير، في سباق مع الذكاء الاصطناعي، جريدة الصباح، 18-5-2023.

[29] – نازك بدير، الذكاء الاصطناعي إلى أين، جريدة الصباح، 2-5-2024،

[30] – الميثاق الكوري الجنوبي لأخلاقيات الذكاء الاصطناعي لعام 2007، نداء روما لأخلاقيات الذكاء الاصطناعي 2020، التوصية الخاصة بأخلاقيات الذكاء الاصطناعي منظمة “اليونسكو”2021 الميثاق الوطني لأخلاقيات الذكاء الاصطناعي الأردني لعام 2022، مبادئ أخلاقيات الذكاء الاصطناعي السعودي لعام 2023، الميثاق المصري للذكاء الاصطناعي المسؤول لعام 2023.

[31] -Anderson, M., and And Anderson,S., Machine Ethics, Cambridge university press,  2011,p 27.

[32]  – التوصية الخاصة بأخلاقيات الذكاء الاصطناعي2021- UNESCO Digital Library    ص 23.

[33]– الميثاق الكوري الجنوبي لأخلاقيات الذكاء الاصطناعي لعام 2007، نداء روما لأخلاقيات الذكاء الاصطناعي 2020، التوصية الخاصة بأخلاقيات الذكاء الاصطناعي منظمة “اليونسكو”2021 الميثاق الوطني لأخلاقيات الذكاء الاصطناعي الأردني لعام 2022، مبادئ أخلاقيات الذكاء الاصطناعي السعودي لعام 2023، الميثاق المصري للذكاء الاصطناعي المسؤول لعام 2023، دليل أخلاقيات استخدام تطبيقات الذكاء الاصطناعي في مجال البحث العلمي، مجموعة من الباحثين،  سوهام للنشر والتوزيع، الجزائر، ط 1، 2023، ص 42-47.

[34] -S.Jain, M.Luthtra, S,Shamma, and M.Fatima,2020,”Trustworthiness of Artificial Intelligence” in 2020, 6th international conference on advanced computing and communication systems, Coimbatore, India,Mar.2020,pp.907-912.

[35] – نموذج أخلاقيات البحث العلمي، عمادة البحث العلمي، جامعة القصيم، 2023، rd.qu.edu.sa/laravel-filemanager/files/shares

[36]  – سمير الحكيم، أخلاقيات الذكاء الاصناعي، مرجع سابق، ص 12.

[37] -L.Floridi, and J. Cowls, A Unified Framework of Five Principles for AI in Society” vol 144,Ethics, Govermance, and policies in artificial intelligence,L Florid,Ed Cham: Springer international Publishing,2021,pp 5-17.

[38]-L.Floridi et al,”AI4 People-An Ethical Framework for a good AI Society: OPPORTUNITIES,Risks,Principles, and Recommendations,” Minds&Machines,vol. 28,no.4, 2018,pp. 689- 707.

 

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.

free porn https://evvivaporno.com/ website