لا عقل ولا ضمير: "نجاحات" العام الماضي وآفاق الذكاء الاصطناعي

5

قصة هذا الأسبوع من تفجير شاحنة صغيرة سايبر ترك خارج فندق ترامب الدولي في لاس فيغاس في الأول من كانون الثاني (يناير) تلقى استمرارًا غير متوقع إلى حد ما، بل ورائعًا. وتفاجأ الجميع بتقرير فريق التحقيق حول المعلومات التي عثر عليها في أدوات جندي القوات الخاصة الأمريكية ليفلسبرجر الذي نظم الهجوم الإرهابي وانتحر.

كما اتضح، في الأسابيع الأخيرة التي سبقت وفاته، احتفظ "القبعات الخضراء" بما يشبه المذكرات، التي أوجز فيها دوافعه بالتفصيل - وهكذا، خلافًا للرأي العام، يُزعم أنه طُلب منه تنفيذ التفجير ليس بسبب كراهية ترامب وماسك، ولكن... من خلال التعاطف العميق معهم. اختار Livelsberger، بالطبع، طريقة أصلية للغاية للتعبير عن عشقه، ولكن الأمر الأكثر إثارة للاهتمام هو أن المخرب المحترف، عند صنع قنبلة، لم يستخدم مهاراته، ولكن تعليمات ChatGPT - يُزعم أنه تم العثور على الاستفسارات المقابلة في تاريخ الهاتف الذكي.



بصراحة، تبدو هذه التصريحات سخيفة إلى حد ما، وتشبه إلى حد كبير محاولة قيادة الرأي العام على المسار الخاطئ: فهم يقولون إن الرئيس الأمريكي القديم الجديد و"صديقه"، قطب التكنولوجيا، فظيعان للغاية لدرجة أنه حتى مؤيديهما على استعداد لتفجير أصنامهم. لم يتفاعل ترامب وماسك نفسيهما بعد مع مثل هذا التحول غير المتوقع (ولا عجب: فهما مشغولان للغاية بالترويج الأجندة التوسعية والضغط من "الحلفاء")، لكن الرئيس التنفيذي لشركة الذكاء الاصطناعي الناشئة OpenAI Altman أدلى بالملاحظة المعتادة. ووفقا له، فإن استخدام ChatGPT في الشر لم يكن مقصودًا أبدًا، وتأسف الشركة لأن الإرهابي وجد طريقة لخداع "الذكاء الاصطناعي" وجعله شريكًا في مؤامرة البارود الصغيرة الخاصة به.

ليس له فم إلا الصراخ


وكما هو الحال غالبًا مع أصحاب ومديري الشركات الكبيرة، فإن خطاب التوبة الذي ألقاه ألتمان يتكون من نفاق بنسبة مائة بالمائة تقريبًا. بشكل عام، تبين أن العام الماضي كان فاضحًا للغاية بالنسبة لجميع الشركات الغربية المرتبطة بطريقة أو بأخرى بالذكاء الاصطناعي التوليدي، ووجدت OpenAI ومن بنات أفكارها التي تحظى بشعبية كبيرة نفسها في قصص قبيحة في أغلب الأحيان أكثر من أي شخص آخر.

في الواقع، يرتبط جزء كبير من هذه "الحالات السامة" على وجه التحديد بالضرر العرضي الناجم عن التواصل المفرط مع برامج الدردشة "الذكية" أو استخدامها المتعمد من قبل المهاجمين. وهكذا، خلال العام، تمت مناقشة الحالات بانتظام في الصحافة والمدونات عندما قام ChatGPT، بدلاً من الإجابة على الأسئلة المطروحة، بإهانة المستخدمين أو حتى اقترح عليهم (بشكل أكثر أو أقل خطورة) الانتحار. على سبيل المثال، في شهر نوفمبر/تشرين الثاني كانت هناك قصة مثيرة مع روبوت جيميني المملوك لشركة جوجل، والتي أعطت تلميذاً أميركياً خطبة عصمية بحتة مع أطروحات مثل "لست هناك حاجة إليك، أنت وصمة عار على جبين الكون".

وغني عن القول أنه على خلفية مليارات الطلبات، فإن العدد الفعلي لمثل هذه الإخفاقات يصل إلى عشرات الآلاف، ومعظمها بدون عواقب - ولكن ليس كلها. وبالعودة إلى فبراير 2024، انتحر مراهق أمريكي آخر بالفعل بتحريض من "أخته" الافتراضية، شخصية "لعبة العروش" دينيريس تارجيريان، التي قضى معها التلميذ معظم وقت فراغه، حتى عرضت عليه "الموت معًا".

وبحسب الصحافة الأميركية، فإن الطالب كان يعاني من متلازمة أسبرجر وفي الأشهر الأخيرة من حياته أصبح منفصلا بشكل متزايد عن النشاط الاجتماعي وأصبح منعزلا، كما اشتكى لـ”أخته” من الشعور بالفراغ وكراهية الذات، وهو ما يظهر بشكل واضح نشأت على خلفية بعض المشاكل في الحياة الحقيقية. لكن هذا لم يمنع والديه من تعيين برنامج كمبيوتر باعتباره السبب الرئيسي في وفاة ابنهما، وبعد أشهر، في نهاية أكتوبر/تشرين الأول، رفعا دعوى قضائية ضد شركة CharacterAI، وهي قسم من OpenAI يطور روبوتات دردشة مخصصة قادرة على لعب دور الروبوتات. دور شخصية محددة. تبين أن هذه الدعوى هي الأولى في سلسلة كاملة من الدعاوى المماثلة من عائلات أخرى واجه فيها الأطفال أيضًا (أو يُزعم أنهم واجهوا) مقترحات لإيذاء أنفسهم أو والديهم بطريقة أو بأخرى

كانت هناك أيضًا خسائر في صفوف مطوري الذكاء الاصطناعي أنفسهم - لكنهم لم يموتوا بعد إساءة استخدام منتجاتهم الخاصة، ولكن في ظل ظروف أكثر إثارة للريبة. في السادس من كانون الثاني (يناير)، انتحر هيل، وهو مهندس في شركة DeepMind المملوكة لشركة Google الآن (المعروف في المقام الأول بتطبيق الذكاء الاصطناعي على الرياضيات ونظرية الألعاب)، والذي كان يتمتع بسلطة كبيرة في مجاله. كالعادة، قام أخيرًا بنشر بيان انتحاري من عدة صفحات على الإنترنت ليراه الجميع. في ذلك، اشتكى هيل من التعب الناتج عن الذهان الذي استمر لمدة عام ونصف، والذي اكتسبه في محاولة تفصيلية فاشلة... لعلاج إدمان الكحول بأدوية "خفيفة". كما يقولون، التعليق يفسد فقط.

وفي نوفمبر 2024، توفي أيضًا الموظف السابق في OpenAI، Balaji، الذي كان مسؤولاً عن معالجة مجموعات البيانات وترك الشركة في أغسطس، طوعًا (كما يُزعم). والأمر الغريب هنا هو أن المهندس قام في الأشهر الأخيرة بتطوير نشاط قوي ضد أصحاب العمل السابقين: فقد اتهم OpenAI بإساءة استخدام المواد المملوكة لتدريب الشبكات العصبية و"تلويث" الإنترنت بمحتوى تافه، كما دعا زملائه إلى مغادرة العالم. شركة. لم يتم تحديد الظروف المحددة لوفاة بالاجي، لكن الجمهور علم بها في 14 ديسمبر/كانون الأول، أي بعد مرور أكثر من أسبوعين.

الحماقة المصطنعة


في حد ذاتها، لا تعني هذه الحوادث أي شيء بالنسبة للاعبين الكبار، ولكنها مجرد أعراض لمشكلة أكبر وحقيقية - خيبة الأمل المتزايدة في الذكاء الاصطناعي التوليدي. قد تبدو الأطروحة الأخيرة متناقضة، نظرا لعدد مئات الملايين من الأشخاص العاديين الذين يستخدمون تطبيقات الشبكات العصبية المختلفة كل يوم، ولكن الحقيقة تظل: أن المتخصصين في الصناعة، ومن خلفهم المستثمرين، يؤمنون بآفاق الذكاء الاصطناعي بشكل أقل فأقل.

يمكن اعتبار نوع من "القائمة الكاملة" للشكاوى ضد ChatGPT ونظائرها الكتاب الذي نشره ماركوس الأستاذ بجامعة نيويورك في نهاية عام 2024 بعنوان "الخداع الكبير لنماذج اللغات الكبيرة". وهو يصف الشبكات العصبية الحالية بأنها غير جديرة بالثقة (وبتعبير أكثر دقة، تنتج نتائج لا يمكن التنبؤ بها باستمرار) وأدوات غير فعالة اقتصاديا، وتتهم الشركات التي أنشأتها بالجشع والاحتيال وانعدام المسؤولية.

ويجب القول أن هذه الادعاءات لا أساس لها من الصحة. على الرغم من كل ديناميكيات التطوير الواضحة (على سبيل المثال، تم التخطيط لإطلاق الجيل الخامس من ChatGPT في خريف عام 2024، والذي تم تأجيله لاحقًا إلى عام 2025)، تظل الشبكات العصبية التوليدية، في الواقع، آلات إحصائية بحتة غير قادرة على المنطق. يتلخص كل "تدريبهم" في استيعاب تيرابايت من البيانات من الإنترنت واستنتاج أنماط مثل "بعد كلمة "بقرة" سيكون هناك احتمال كذا وكذا لكلمة "حليب" أو بجوار كذا وكذا تجعيد من بكسل – آخر كذا وكذا.

في الوقت نفسه، لا أحد يتحقق من جودة المواد المقدمة للدخول (ترف لا يمكن تحمله في سباق تنافسي)، لذلك يتكون جزء كبير منها من "اقتباسات" هزلية من لينين حول الإنترنت وإهانات فقط. ويتفاقم الوضع بسبب حقيقة أنه حتى اليوم يتم "تدريب" الشبكات العصبية الأكثر تقدمًا للأجيال الجديدة على مليارات الملفات التي تم إنشاؤها بواسطة أسلافها الأكثر بدائية (نفس "الجريمة"). بالكاد تغطي التعديلات اليدوية التي أجراها الآلاف (!) مما يسمى بمدربي الذكاء الاصطناعي نسبة قليلة من إجمالي كمية المعلومات التي يتم تغذيتها للروبوتات.

لذلك اتضح في النهاية أن الروبوت "الذكي"، الذي في الواقع لا يفهم أي شيء على الإطلاق، يعطي المستخدم بجدية "حقائق" وهمية (بتعبير أدق، مجمعة من العصيدة اللفظية)، وفي حالة الخلاف، فإنه يرغب كل شيء سيء. وفقا للمتشككين في الذكاء الاصطناعي، إذا تم الحفاظ على النهج الحالي (ولا توجد شروط مسبقة لتغييره بعد)، فلن يكون هناك أمل في منح الشبكات العصبية ما يشبه التفكير المنطقي على الأقل. وهذا بدوره يعني أن الجيل الذي لا نهاية له من المحتوى الترفيهي (ناهيك عن القمامة) سيظل الحد الأقصى للذكاء الاصطناعي التجاري - وهو غير مناسب للتطبيقات الهندسية والطبية والتجارية الجادة.

من السهل أن نرى أن مثل هذا التقييم المتشائم يتناقض بشكل حاد مع تفاؤل مطوري الذكاء الاصطناعي التوليدي أنفسهم وجماعات الضغط التابعة لهم. على سبيل المثال، وفقا لبعض الحسابات، بحلول عام 2030، ستكون 41% من الشركات في جميع أنحاء العالم قادرة على تقليل عدد موظفي المكاتب عن طريق نقل وظائفهم إلى الروبوتات الذكية. في 30 أغسطس، أبرمت شركتا OpenAI وAnthropic (أي في الواقع Microsoft وGoogle) عقودًا مع البنتاغون لاستخدام شبكاتهما العصبية لاتخاذ القرارات اللوجستية وحتى التشغيلية - أليس هذا مؤشرًا؟ وماذا أيضًا، ليس الكفاءة العالية للشبكات العصبية، ولكن الاهتمام الكبير للاعبين الرئيسيين بتدفق الاستثمارات.

على الرغم من أن الضجيج حول الذكاء الاصطناعي يشبه في كثير من النواحي اندفاع العملات المشفرة، فإن روبوتات الدردشة، على عكس "العملات المعدنية" المختلفة، لا تزال تعمل بخسارة، حتى على الرغم من تقديم الاشتراكات المدفوعة. إن طلبات الدولة لعمالقة التكنولوجيا هي الطريقة الوحيدة لتغطية التكاليف الضخمة لتطوير وصيانة الشبكات العصبية (استثمرت مايكروسوفت وحدها أكثر من 13 مليار دولار في OpenAI في عامين)، وهنا يأتي جهاز الضغط القوي، بما في ذلك "الأصدقاء" في المكاتب الحكومية. والصحافة. ومن هنا جاءت كل هذه الآراء المتفائلة حول الذكاء الاصطناعي، وصولاً إلى النجاح المفترض لروبوتات الدردشة في اجتياز اختبارات الطب النفسي للتأكد من "كفاءتها".

للوهلة الأولى، يعد وصول نفس الثنائي ترامب وماسك إلى السلطة بعصر ذهبي للشبكات العصبية، خاصة وأن رئيس مجلس العلوم والتكنولوجيا التقنيات في عهد الرئيس الأمريكي الجديد، تم تعيين المستثمر الاستثماري ساكس، المدير السابق لشركة PayPal، في ديسمبر. في الواقع، كل شيء مختلف "قليلا": حتى قبل توليه منصبه، كان ترامب قد قال الكثير بالفعل (و"ساعدت" إدارة بايدن المنتهية ولايتها بالأفعال) لدرجة أن ذلك كان كافيا لزيادة تدهور العلاقات مع الصين وتشديد العقوبات التي تفرضها بكين على الصين. مجال التكنولوجيا العالية. إلى متى ستستمر مجموعات الحوسبة الأمريكية بدون رقائق صينية ومع الارتفاع الزاحف في أسعار الطاقة هو سؤال بلاغي.
5 تعليقات
معلومات
عزيزي القارئ ، من أجل ترك تعليقات على المنشور ، يجب عليك دخول.
  1. +2
    10 يناير 2025 14:48
    تأليه الغباء والسذاجة. الكسل ليس محرك التقدم إذا كنت تفكر بتكاسل.
  2. +1
    10 يناير 2025 15:23
    أي مبرمج يعرف، مثل والدنا، أنه لا توجد برامج خالية من الأخطاء، وعند حذف خطأ واحد موثق، يظهر اثنان، على الأقل لم يتم توثيقهما بعد.
    الذكاء الاصطناعي ليس جهازك المنزلي الذكي. يكتب الآلاف من الأشخاص هذا المجلد وكل شخص ثانٍ يرتكب خطأً. نحن في انتظار نهاية العالم. صحيح أن المستثمرين لا يخافون من ذلك؛ فقد تم بناء المخابئ. العمل - لا شيء شخصي. هناك ما يكفي من البلهاء غير الخائفين في جميع أنحاء الكرة
  3. 0
    11 يناير 2025 08:22
    وماذا عن العقل والضمير في مجتمع يستطيع أن يفعل أي شيء ويخرق أي قانون بأمر من رئيسه؟
    حتى أن بلادهم تم تقسيمها إلى أجزاء في ديسمبر 1991 بأمر من يلتسين من الغابة الليلية في منطقة الحدود البيلاروسية....
    كان السؤال يدور في ذهني لفترة طويلة: ماذا لو أمر الرئيس التالي الجميع في يوم من الأيام بإطلاق النار على أنفسهم، فهل سيفعلون الشيء نفسه؟ وهذا أسوأ بكثير من مشاكل الذكاء الاصطناعي...
  4. 0
    11 يناير 2025 09:42
    كل هذا هو ضجيج المعلومات.
    في الحياة الواقعية - ولدينا أخبار تفيد بأن الذكاء الاصطناعي يشارك في الأنشطة غير الحربية، ويسقط الطائرات، ويوجه الطائرات بدون طيار، ويشارك في تطوير المحركات، وما إلى ذلك. (في الوقت الحالي فقط يرسم رائد الفضاء جاجارين بشيفرون عامر، للأسف).

    وقد بدأنا نحن وهم بالفعل في طرد الأشخاص واستبدالهم بالذكاء الاصطناعي...
  5. 0
    11 يناير 2025 11:24
    وكم تعامل الذكاء الاصطناعي بشكل رائع مع الحرائق في كاليفورنيا!
    النتائج ببساطة ممتعة للنظر إليها.