- تيك توك ويوتيوب قد ترفع خطر الاصابة بالهلوسة والجنون
- الذكاء الاصطناعي ومحاولة إعادة الأموات للحياة بتقنية المحاكاة
- الذكاء الاصطناعي قد يتحول لنقمة على المعتقدات والجنس البشري
الكويت 27 يونيو (csrgulf): “تيك توك” و”يوتيوب” وتطبيقات كثيرة أخرى تعمل بتقنيات الذكاء الاصطناعي، ومثل هذه التطبيقات تلاقي رواجا كبيرا بين المستخدمين في العالم وخاصة في الشرق الأوسط والخليج. بعض الدراسات تحذر من أن افراط استخدام هذه التطبيقات قد يؤدي الى زيادة تشخيص أعراض الاصابة بانفصام الشخصية والهلوسة بين المراهقين والأطفال. كما أن معتقدات المراهقين هي المتضرر الأكبر مستقبلا من جراء زيادة دمج تقنيات الذكاء الاصطناعي في وسائل الاتصال والترفيه والتعليم.
بالاعتماد على الذكاء الاصطناعي يستخدم على سبيل المثال TikTok خوارزمية توصية غير شفافة ومسببة للإدمان توقع المستخدمين المراهقين في”تيار لا نهاية له” من المحتوى الضار المتعلق بالانتحار والقلق والاكتئاب. كثرة استخدام المحتويات الضارة في عمر مبكر وخاصة في فترة الطفولة قد يسبب اظطرابات عقلية مزمنة وخطيرة. تيك توك ومنصات اخرى حسب دراسات كثيرة لعل أبرزها التي أنتجتها جامعة هارفرد الأمريكية، باتت مصدرا مقلقا لأمراض نفسية اجتماعية جماعية باتت تتخذ سمة الوبائية. حيث يعاني ملايين المراهقين اليوم حول العالم بما في ذلك منطقة الشرق الأوسط والخليج وشمال أفريقيا من تداعيات ادمان “تيك توك” والتطبيقات المماثلة. أكثر ما بات يشكو من جزء كبير من المراهقين هو اكتئاب مزمن وحاد وأعراض تقترب من اعراض الهلوسة والهسيتريا.
أطلقت تحذيرات من قدرة الذكاء الاصطناعي على “تعميم الآراء المغرضة والبيانات الخاطئة” مع عواقب وخيمية بعيدة المدى على الأسرة والمجتمع إذا سمح لهذه التكنولوجيا بالتطور دون إشراف مناسب أو تقييد. وبالتالي فاذا أصبح التقدم التكنولوجي للبشرية عدوًا للصالح العام، فإن هذا سيؤدي إلى تراجع مؤسف للقيم الإنسانية وإلى شكل من أشكال الفوضى البربرية.
يمثل الصعود السريع لتطبيق الذكاء الاصطناعي AI للمحادثة ChatGPT والرائج في الهواتف الذكية اليوم جوهر المزيد من المخاوف. قام العديد من المستخدمين العرب والخليجيين بتطبيق تكنولوجيا الذكاء الاصطناعي للتخلص من مهام الكتابة على سبيل المثال مما يهدد النزاهة الأكاديمية والإبداع[1].
GPT-4 هو نموذج تعليمي كبير تم تدريبه على كميات هائلة من البيانات والنصوص التاريخية والمعاصرة التي كتبها مؤلفون بشريون ويمكن لهذا التطبيق إنتاج نص بمفرده وإنشاء منشورات وقصائد وبرامج كمبيوتر. أفادت صحيفة نيويورك تايمز أنه بواسطة هذا التطبيق بالإمكان الانخراط في محادثات مع الروبوتات شبيهة بالبشر وتقديم إجابات للأسئلة. يمكن للأنظمة المماثلة أن تولد صورًا صوتية وصورا واقعية ومقاطع فيديو مقنعة، وأحيانًا تكون على غرار أناس حقيقيين أو أموات.
يزيد الذكاء الاصطناعي من كبت قدرات الانسان الحسية وزيادة عزلته مع الالة، حيث قد يفقد أكثر فأكثر فن التواصل مع الاخر في الواقع. وهذا ما دفع لزيادة الانتباه خاصة لسلوك المراهقين الذين يستخدمون بإفراط تقنيات الذكاء الاصطناعي خاصة بغرض التسلية والخداع وتحريك صور وأصوات ليس الاحياء فقط بل حتى الأموات. ومن المحتمل ان يتولد نوع من الاضطراب النفسي لدى جيل بأسره يجعل يزيد من الخضوع للروبوتات في حين يتخلى عن القيم الحقيقية وقد يكون المعتقد أعظمها.
المخاطر المحتملة للذكاء الاصطناعي
يزداد الذكاء الاصطناعي تعقيدًا وانتشارًا، وتزداد الأصوات التي تحذر من المخاطر المحتملة للذكاء الاصطناعي. يقول عالم الفيزياء ستيفن هوكينج: “إن تطور الذكاء الاصطناعي يمكن أن يعني نهاية الجنس البشري”. بدوره قال إيلون ماسك مؤسس شركة Tesla وSpaceX ذات مرة هذا العام في مؤتمر SXSW التكنولوجي: “الذكاء الاصطناعي يخيفني بشدة”.
في أواخر شهر مارس، وقعت مجموعة تضم أكثر من 1000 من قادة التكنولوجيا والباحثين وغيرهم من الخبراء العاملين في مجال الذكاء الاصطناعي رسالة مفتوحة تحذر من تقنيات الذكاء الاصطناعي لما تحمله من “مخاطر جسيمة على المجتمع والإنسانية”.
حثت المجموعة التي ضمت إيلون ماسك، الرئيس التنفيذي لشركة Tesla وصاحب Twitter ، المختبرات وقف تطوير أنظمة الذكاء الاصكناعي لمدة ستة أشهر حتى التمكن من فهم المخاطر الكامنة وراء التكنولوجيا بشكل أفضل. حيث أن عملاقة التكنولوجيا أنفسهم غير واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة.
وبعث مختصو التكنولوجيا برسالة مفادها توخي الحذر الشديد. حيث يمكن أن تولد انظمة الذكاء الاصطناعي معلومات غير صادقة ومتحيزة. أنظمة مثل GPT-4 قد تزيف الحقائق وتنقل معلومات خاطئة بشكل مقنع، وقد تصل آثارها الى التسبب في ظاهرة تسمى “الهلوسة” وعدم إمكانية التثبت من الحقائق.[2]
“تيك توك” يسبب زيادة مخاطر الاصابة بالهلوسة
ما يزال البشر في المراحل المبكرة جدًا لما يستطيع الذكاء الاصطناعي فعله بهم. سواء كان الأمر يتعلق بالأتمتة المتزايدة لوظائف معينة، أو خوارزميات متحيزة جنسانيًا أو عنصريًا أو أسلحة تعمل دون إشراف بشري، ينتشر القلق على عدد من الجبهات.
يشير تقرير صدر عام 2018 عن الانتهاكات المحتملة للذكاء الاصطناعي الى أن التلاعب الاجتماعي أحد أهم مخاطر الذكاء الاصطناعي. مثل هذا الخطر أصبح حقيقة واقعة، حيث يعتمد السياسيون على المنصات الالكترونية للترويج لوجهات نظرهم، واستخدام البعض لمنصات مثل TikTok تعمل بالذكاء الاصطناعي لجذب أصوات خلال الانتخابات. وهو ما يزيد من خطر رواج البروباغندا المضللة عبر نقل المعلومات الزائفة والتحكم في عواطف الجمهور.
تعمل منصات على غرار “تيك توك” و”يوتيوب” على خوارزمية الذكاء الاصطناعي ومشاركة القصص القصيرة عبر تقنيات المحاكاة أحيانا. يستهدف انتقاد مثل هذه التطبيقات فشل الخوارزمية في تصفية المحتوى الضار وغير الدقيق، مما يثير الشكوك حول قدرة TikTok على سبيل المثال على حماية مستخدميها من الوسائط الخطيرة والمضللة.
كما يتعرض مستخدمو “تيك توك” أكثر أي مستخدمي منصة أخرى الى خطر الاصابة بالهستيريا وصولا الى العدوانية السلوكية والهلوسة وذلك بسبب اعتماد مثل هذه المنصة على تقنية المحاكاة وتشارك القصص القصيرة السريعة، ما يشجع نمو ظاهرة الانفعال السريع، ويساعد تقمص الأدوار والشخصيات على منصة تيك توك من أعراض الاظطراب النفسي الحاد. كما يساعد زيادة دمج الذكاء الاصطناعي في مثل هذه التطبيقات الى أزمات سولكية ونفسية مقلقة. وقد يكون المراهقون أكثر المتضررين خاصة الذين يصلون أكثر من غيرهم الى الهواتف الذكية والانترنت. ويمثل أطفال وشباب دول مجلس التعاون الخليجي أكثر شريحة وصولا الى الانترنت على المستوى العربي ما يفاقم مخاطر زيادة استخدام تقنيات الذكاء الاصطناعي في مجال التواصل والتسلية. حيث أن له تداعيات خطيرة على الأسرة والمجتمع.
تزيد مخاطر الإصابة بأعراض الهلوسة عند المراهقين جراء الإدمان على استخدام تطبقي تيك توك العاملة بتقنية الذكاء الاصطناعي خاصة أثناء التعرض لهذه التقنية في عمر مبكر في غياب رقابة ورعاية أبوية. حيث أن الذكاء الاصطناعي قد يتفوق على الانسان الى حين السيطرة على مداركه العقلية والنفسية في النهاية. وهو ما قد يقود الى زيادة تشخيص مخاطر الاضطرابات النفسة والعقلية بين المراهقون والأطفال أيضا خاصة المعتمدين على التسلية والتعليم بوسائط الكترونية عاملة بالذكاء الاصطناعي.
عموما، أصبحت وسائل الإعلام والأخبار عبر الإنترنت أكثر ضبابية، في ضوء اختراق التزييف العميق للمجالات السياسية والاجتماعية والأخلاقية والقيمية. تسهل تقنيات استبدال صورة شخصية بأخرى في صورة أو مقطع فيديو. ونتيجة لذلك، فإن الجهات الفاعلة السيئة قد يكون لديها وسائل أخرى لتبادل المعلومات الخاطئة والدعاية الحربية، مما يخلق سيناريو كابوسًا حيث قد يكون من المستحيل تقريبًا التمييز بين الأخبار الجديرة بالتصديق والأخبار الخاطئة.
التكنولوجيا تتطور بمعدل “مخيف”
يقول جيفري هينتون ، الباحث منذ فترة طويلة في Google المتقاعد حديثًا عن عمر 75 عامًا أحد الباحثين البارزين في مجال الذكاء الاصطناعي الذي يسميه البعض “الأب الروحي” للذكاء الاصطناعي، إن التكنولوجيا تتطور بمعدل “مخيف” ويحذر من أنها لا ينبغي أن تتوسع بما يتجاوز قدرتنا على السيطرة عليها. وينضم إلى أصوات العديد من القادة الذين يريدون ضمان “ترسيخ” الضوابط والقيم الأخلاقية في أساس التكنولوجيا. ويعتقد هينتون أن برامج مثل نظام روبوت الدردشة GPT-4 تتفوق على الشخص في مستوى المعرفة العامة التي يمتلكها وتتفوق عليه كثيرًا خاصة في التفكير المنطقي البسيط[3].
أعرب باحثون آخرون عن قلقهم من أن أنظمة الذكاء الاصطناعي هذه تشكل مخاطر على المدى القصير والمتوسط والطويل. تشمل المخاطر الأولية في احتمال ثقة الناس بشكل خاطئ في معلومات مضللة ينتجها الذكاء الاصطناعي بشكل مقنع. فقد ينشئ المخادعون والمجرمون على الانترنت مكالمات هاتفية مزيفة تحاكي صوت قريب أو أحد من أفراد أهلك يدعي أنه في خطر ويحتاج إلى المال بسرعة. وبذلك فإنها قد تسهل خداع الناس حيث تبين أن العديد من الأشخاص يخطئون في التحقق من الصورة الزائفة والحقيقية.
خروج أنظمة الذكاء الاصطناعي عن السيطرة البشرية قد يؤدي حتى لتدمير البشرية، استنتاج لم يعد ضرباً من الخيال العلمي. يحذر بعض الخبراء من السلوك غير المتوقع من أنظمة الذكاء الاصطناعي التي يجري تطويرها حاليًا. إذا أصبحت أنظمة الذكاء الاصطناعي مترابطة مع خدمات الإنترنت الأخرى وأصبحت قوية جدًا بحيث يمكنها كتابة التعليمات البرمجية الخاصة بها لتعديل نفسها بنفسها، فقد يصبح الذكاء الاصطناعي الخارج عن السيطرة خطرًا حقيقيًا.
التقنيات الرقمية قد تزيد من اختزال الإنسان وتشيئه والتفوق عليه بل والسيطرة عليه. فلا يمكن قياس القيمة الأساسية للشخص بالبيانات وحدها. يجب أن يكون صنع القرار الاجتماعي والاقتصادي المعتمد على تقنيات الذكاء الاصطناعي “حذرًا” بشأن تفويض أحكامه إلى الخوارزميات ومعالجة البيانات المتعلقة بسلوك الفرد.
الذكاء الاصطناعي قد يسبب أزمة في المعتقد والقيم الأخلاقية
أدى التطور السريع وتكامل تقنيات الذكاء الاصطناعي (AI) إلى استشراف تحولات مختلفة في حياة الإنسان كديناته ومعتقده. وقد اقترنت مخاطر أخلاقية مرتبطة باستخدام الذكاء الاصطناعي كالمعضلات الأخلاقية الناشئة عن قرارات يتخذها الذكاء الاصطناعي، وإمكانية حدوث مفاهيم دينية مشوهة.
يجادل النقاد بأن إنشاء أنظمة ذكاء اصطناعي متقدمة بذكاء شبيه بالإنسان يمكن اعتباره محاولة من قبل البشر لتولي قوة خارقة، مما قد يمثل تحديًا للسلطة الإلهية. حيث يثير مفهوم أتمتة وظائف الانسان انتقادات حول حدود الفاعلية البشرية وحدود الإبداع البشري. فإذا اتخذت أنظمة الذكاء الاصطناعي قرارات مستقلة، فمن المحتمل أن تتعارض هذه القرارات مع بعض المبادئ الدينية وحتى الأخلاقية الشائعة.
تمتلك أنظمة الذكاء الاصطناعي القدرة على معالجة كميات هائلة من البيانات واتخاذ القرارات بناءً على الخوارزميات والأنماط النموذجية. ومع ذلك، قد لا تتوافق هذه القرارات دائمًا مع التعاليم أو المبادئ الأخلاقية والدينية. تثير هذه المعضلة الأخلاقية أسئلة حول المسؤولية الأخلاقية عن الإجراءات والقرارات التي تتخذها أنظمة الذكاء الاصطناعي خاصة في السياقات الدينية.
فأغلب المجتمعات تمتلك قيمًا أخلاقية محددة في تعاليم الكتب المقدسة والتي توجه ممارسات البشر ومعتقداتهم. قد يؤدي تكامل الذكاء الاصطناعي إلى حدوث تعارض بين المبادئ المشفرة داخل أنظمة الذكاء الاصطناعي وكلا من العقيدة والأخلاق. وهو ما يستلزم دراسة متأنية لكيفية توافق الذكاء الاصطناعي مع القيم والتعاليم الدينية واحترامها. إذا لم يتم السيطرة على تقنية الذكاء الاصطناعي بعناية، فيمكن أن تساهم بسهولة في التقليل من قيمة الحياة البشرية وتآكل الاتصال البشري الأصيل[4].
عصر التعايش الرقمي والإنساني
مع استمرار انتشار الذكاء الاصطناعي (AI) المستند إلى الخوارزمية، هل سيكون الناس أفضل حالًا مما هم عليه اليوم؟
لقد بلغ الذكاء الاصطناعي سن الرشد. حيث بدأ يعمل البشر والآلات معًا. وقد دخل العالم “عصر مع”، حيث تسخر الشركات قوة الذكاء البشري مع الذكاء الآلي لتحديد المزايا الفريدة من خلال التحليلات والذكاء الاصطناعي (AI).
تعمل الحياة الرقمية على زيادة القدرات البشرية الفكرية وتعطيل أو تقليص الأنشطة البشرية العضلية. انتشرت الأنظمة التي يحركها الكود لتشمل أكثر من نصف سكان العالم المرتبطين بأجهزة تصلهم بالمعلومات.
وتوقع الخبراء أن الذكاء الاصطناعي المتصل بالشبكة سيضخم الفعالية البشرية ولكنه يهدد أيضًا الاستقلالية والقدرات البشرية الطبيعية الفطرية. فأجهزة الكمبيوتر قد تتطابق أو حتى تتجاوز الذكاء والقدرات البشرية في مهام مثل اتخاذ القرارات المعقدة، والتفكير والتعلم، والتحليلات المتطورة والتعرف على الأنماط، والحدة البصرية، والتعرف على الكلام، وترجمة اللغة. حتى أن الأنظمة “الذكية” قيل أن ستوفر الوقت والمال والأرواح وفرصًا للأفراد للتمتع بمستقبل أكثر خصوصية[5].
ركز الكثيرون ملاحظاتهم المتفائلة على الرعاية الصحية والعديد من التطبيقات الممكنة للذكاء الاصطناعي في تشخيص وعلاج المرضى أو مساعدة كبار السن على عيش حياة أكمل وأكثر صحة. وكما كانوا متحمسين أيضًا لدور الذكاء الاصطناعي في المساهمة في برامج الصحة العامة الواسعة المبنية على كميات هائلة من البيانات التي قد يتم التقاطها في السنوات المقبلة حول كل شيء من الجينوم الشخصي إلى التغذية. بالإضافة إلى ذلك، توقع عدد من هؤلاء الخبراء أن الذكاء الاصطناعي سوف يحفز التغييرات التي طال انتظارها في أنظمة التعليم الرسمية وغير الرسمية[6].
2023 © مركز الخليج العربي للدراسات والبحوث CSRGULF
المراجع:
[1] Mike Thomas, 8 Risks and Dangers of Artificial Intelligence (AI), https://builtin.com/artificial-intelligence/risks-of-artificial-intelligence
[2] Cade Metz, What Exactly Are the Dangers Posed by A.I.?, nytimes, May 1, 2023, https://www.nytimes.com/2023/05/01/technology/ai-problems-danger-chatgpt.html
[3] Former Google scientist warns about the dangers of artificial intelligence, May 9, 2023, https://denvercatholic.org/former-google-scientist-warns-about-the-dangers-of-artificial-intelligence/
[4] Sterling Martin Allen and ChatGPT, The Theological and Ethical Dangers Associated with Using Artificial Intelligence in Christian Religious Settings, May 2023, https://firebrandmag.com/articles/the-theological-and-ethical-dangers-associated-with-using-artificial-intelligence-in-christian-religious-settings#:~:text=The%20utilization%20of%20AI%20in%20decision%2Dmaking%20processes%20within%20sacred,even%20commonly%20held%20moral)%20principles.
[5] JANNA ANDERSON AND LEE RAINIE, Artificial Intelligence and the Future of Humans, PEW RESEARCH CENTER, DECEMBER 10, 2018, https://www.pewresearch.org/internet/2018/12/10/artificial-intelligence-and-the-future-of-humans/
[6] Deloitte report, Artificial Intelligence and Humans: The Future of AI, https://www2.deloitte.com/in/en/services/consulting-deloitte/in-consulting-the-age-of-with-tm-humans-and-machines-future-of-artificial-intelligence-noexp.html