مقالات رأي

الذكاء الاصطناعي هل يمثل خطر على البشرية؟ هل يجب وضع إطار أخلاقي لطريقة عمله؟



أثار إصدار برنامج شات جي بي تي GPT-4 للذكاء الاصطناعي العديد من المخاوف والنقاشات بين رواد التكنولوجيا والعلماء في مجال الذكاء الاصطناعي. تعتبر نظم الذكاء الاصطناعي. مثل شات جي بي تي، التي تستخدم في العديد من تطبيقات معالجة اللغة الطبيعية مثل الدردشة الآلية والترجمة اللغوية وإنشاء المحتوى. موضوع قلق واهتمام العديد من الناس في الآونة الأخيرة.

حيث دعا عدد من الشخصيات المؤثرة في العالم التكنولوجي إلى وقف تحديث البرنامج لمدة ستة أشهر. والحد من تطوير الذكاء الاصطناعي الذي يتفوق على GPT-4. النسخة الحالية للأداة التي طرحت لأول مرة في نوفمبر 2022.

علماء الذكاء الاصطناعي و رواد التكنولوجيا يعبّرون عن قلقهم من تطوير ChatGPT

ووجهت الرسالة الداعية لوقف تطوير البرنامج اتهامات بأن النظام الذكي بمثل هذه القوة يمكن أن يشكل مخاطر كبيرة على المجتمع والإنسانية. وإذا لم يتم وقف تدريب الذكاء الاصطناعي بشكل فعال في غضون ستة أشهر، فعلى الحكومات التدخل وفرض وقف مؤقت.

دعا مجموعة من العلماء والمؤثرين الكبار في مجال الذكاء الاصطناعي شركة OpenAI إلى وقف تحديث برنامج شات جي بي تي ChatGPT. وفي رسالة مفتوحة. و طالب المؤيدون لهذه الفكرة بوقف تدريب نظم الذكاء الاصطناعي التي تفوق عل GPT-4. الإصدار الحالي من البرنامج الذي يولد النصوص والأفكار الإبداعية. الذي تم إطلاقه في نوفمبر 2022. وتشكل هذه النظم خطرًا على المجتمع والإنسانية، حسب المؤيدين للفكرة.

ومن بين الشخصيات البارزة التي وقعت على هذه الرسالة. إيلون ماسك، مؤسس تيسلا وسبيس إكس، وستيف وزنياك، مؤسس شركة أبل، وأندرو يانغ، رائد الأعمال والسياسي الأمريكي. وعبر أكثر من 1700 شخص بما في ذلك المغرد الرئيسي لتويتر إيلون ماسك ورائد الأعمال كريس لارسن، عن دعمهم لهذه الفكرة.

وتدعو الرسالة الأكاديميين ومختلف المؤسسات المعنية بالذكاء الاصطناعي إلى تعليق التدريب على هذه الأنظمة. حتى يتم تحسين الأنظمة الموجودة من ناحية الدقة والأمان والشفافية والمتانة والثقة. مع تسريع تطوير أنظمة الحوكمة المتعلقة بالذكاء الاصطناعي.

وتشير الرسالة إلى أن أنظمة الذكاء الاصطناعي ذات القدرات المتفوقة على الذكاء البشري تشكل مخاطر كبيرة على المجتمع والبشرية. وأن التركيز يجب أن يكون على جعل الأنظمة الموجودة أكثر دقة وأمانًا وشفافية ومتانة وثقة.

وفي استجابة لتغريدة حول العريضة، قال مؤسس شركة Tesla، إيلون ماسك: “لن ينتبه المطورون الرائدين في مجال الذكاء الاصطناعي لهذا التحذير، ولكن على الأقل تم التحدث عنه”.

رفض فكرة توقيف تطوير برنامج شات جي بي تي ChatGPT

ومع ذلك، فإن هناك من يرفض هذا الدعوة، بما في ذلك الرئيس التنفيذي لشركة  Coinbase، براين ارمسترونج. الذي أكد في تغريدة له أنه لا يوجد “خبراء” للفصل في هذه المسألة، وأن الكثير من الجهات المعنية لن يتفقوا أبدًا، وأن اللجان والبيروقراطية لن تحل أي شيء.

وقال أرمسترونج في تغريدة له: “أحسب نفسي من الأشخاص الذين يعتقدون أن هذه فكرة سيئة، لا يوجد ‘خبراء’ يستطيعون التحكيم في هذه المسألة. والعديد من الأطراف المختلفة لن يتفقوا، اللجان والبيروقراطية لن تحل أي شيء”.

يعارض رئيس Coinbase هذ الرسالة، ويقول: “كما هو الحال مع العديد من التقنيات، هناك أخطار. ولكن يجب علينا الاستمرار في المضي قدمًا في التقدم لأن الجيد يفوق السيئ”.

وأضاف أرمسترونج: “لا تدع الخوف يوقف التقدم، وكن حذرًا من أي شخص يحاول السيطرة في سلطة مركزية”.

ويأتي هذا التصريح بعد أن أجرت شركته مؤخراً  تجربة لاستعمال شات جي بي تي ChatGPT و تقنية الذكاء الاصطناعي لمعرفة مدى قدرته على أداء مراجعة مستويات الأمان في العملات الرقمية المشفرة التي يم إدراجها المدرجة في منصة التداول.

المسؤولية الأخلاقية في مجال الذكاء الاصطناعي

إلا أن هذه التقنية تثير العديد من القلق بشأن المسائل الأخلاقية. وخاصة فيما يتعلق بدور الآلات في اتخاذ القرارات الحيوية والتواصل الإنساني.كما يثير استخدام هذه النظم قلقا حول الآثار المحتملة على التوظيف وعدم المساواة الاجتماعية.

وازداد القلق حيال استخدام هذه النظم لتقديم مزاعم أداء مضللة. حيث اتهم مركز السياسة الرقمية والذكاء الاصطناعي OpenAI بانتهاك الممارسات غير العادلة والمضللة في ملف تقدم به إلى اللجنة الفيدرالية للتجارة في الولايات المتحدة.

وفقا لمؤسس المركز ورئيسه، مارك روتنبرغ Marc Rotenberg فإن “اللجنة الفيدرالية للتجارة FTC لديها مسؤولية واضحة للتحقيق في ومنع الممارسات التجارية غير العادلة والمضللة. نحن نعتقد أن اللجنة الفيدرالية للتجارة يجب أن تنظر بعناية إلى شركة  OpenAI و برنامج شات جي بي تي وGPT-4.”

هذه الشكوى لم تكن مفاجئة، فقد أعلنت اللجنة الفيدرالية للتجارة FTC عن تحديث الفقرة الخامسة من القانون الشهر الماضي لتشمل لغة موجهة إلى مطوري برامج الذكاء الاصطناعي مثل OpenAI. نصحت الوكالة المطورين بتجنب مبالغة قدراتهم. و زعم مستويات أداء مضللة. أو إطلاق وعود بالتفوق منتجات الذكاء الصناعي على منتجات غير الذكاء الاصطناعي بدون إثبات كافٍ.

حذرت اللجنة الفيدرالية للتجارة أيضا المطورين بضرورة استكشاف و التأكد من المخاطر والتأثيرات المحتملة قبل الإطلاق المنتجات و الخدمات. حيث أكدت على ضرورة معرفة المخاطر والتأثيرات المتوقعة لمنتجات الإصطناعي قبل طرحها في السوق.

وليست مؤسسة الذكاء الاصطناعي والسياسة الرقمية وحدها في دعوتها للتحقق من سرعة التطور السريع للذكاء الاصطناعي وضرورة وجود قواعد صارمة.

حيث أصدرت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) بيان يوم الخميس الماضي يدعو إلى إطار أخلاقي عالمي للذكاء الاصطناعي.

في نوفمبر 2021، صوتت الدول الأعضاء الـ193 في المؤتمر العام لليونسكو لإقرار معيار عالمي لأخلاقيات الذكاء الإصطناعي. من خلال اعتماد توصية بشأن أخلاقيات الذكاء الاصطناعي. يهدف هذا الإطار إلى حماية وتعزيز حقوق الإنسان والكرامة. كما يعمل كدليل أخلاقي وأساس لتعزيز الالتزام بسيادة القانون في العالم الرقمي.

قالت المديرة العامة لليونسكو، أودري أزولاي Audrey Azoulay: “يحتاج العالم إلى إلتزامات أخلاقية تحكم عمل الذكاء الاصطناعي، وهذا هو تحدي عصرنا”.

وتشير هذه المطالبات الدائمة إلى الضرورة الملحة لوضع قواعد وإطار أخلاقي يضمن استخدام التقنيات الناشئة بطريقة تحترم الحقوق والكرامة الإنسانية، وتضمن عدم استغلالها لأغراض غير أخلاقية.

بين الآمال و المخاوف المتزايدة حول الذكاء الاصطناعي واستخداماته

يذكر أن نظم الذكاء الإصطناعي، مثل شات جي بي تي، التي تستخدم في العديد من تطبيقات معالجة اللغة الطبيعية مثل الدردشة الآلية والترجمة اللغوية وإنشاء المحتوى. من المتوقع أن تحدث زيادة كبيرة في قدرات هذه النظم مع إصدار GPT-4. الذي يتميز بقدرات متطورة في مجالات مثل التفكير المتقدم والتعليمات المعقدة والإبداعية أكثر.

وعلى الرغم من هذه المخاوف، فإن هناك أيضاً من يعتبرون أن تطوير تقنية الذكاء الإصطناعي يشكل تقدماً كبيراً في عالم التكنولوجيا. حيث يتوقعون أن تساهم هذه التقنية في تطوير حلول جديدة وفعالة للكثير من المشاكل التي تواجه البشرية في مختلف المجالات.

ويتزايد الاهتمام بتقنية الذكاء الإصطناعي في الوقت الراهن. ويترافق ذلك مع زيادة المخاوف والتساؤلات حول ما إذا كانت هذه التقنية ستشكل تحسينًا كبيرًا في حياتنا أم ستكون مصدر قلق ومخاطر على المجتمع والإنسانية. وبالتالي، يتعين على المتخصصين والمؤثرين في هذا المجال تطوير إطار عمل قانوني وأخلاقي. يسمح لتقنيات الذكاء الإصطناعي بالتقدم بسرعة وفي الوقت نفسه يضمن حماية المجتمع والإنسانية.

في المجمل، يبدو أن هناك اتجاهات متضاربة حول استخدام الذكاء الإصطناعي وبرامجه. والمخاوف التي يمكن أن تشكلها هذه التقنية المتزايدة. ويتوقع أن يستمر النقاش حول هذا الموضوع في الأشهر والسنوات القادمة. حيث ستظل تقنية الذكاء الإصطناعي في تطورها المستمر.

إخلاء مسؤولية

جميع المعلومات المنشورة على موقعنا الإلكتروني تم عرضها على أساس حسن النية ولأغراض المعلومات العامة فقط. لذا، فأي إجراء أو تصرف أو قرار يقوم به القارئ وفقاً لهذه المعلومات يتحمل مسؤوليته وتوابعه بشكل فردي حصراً ولا يتحمل الموقع أية مسؤولية قانونية عن هذه القرارات.



زر الذهاب إلى الأعلى