كان عام 2024 محورياً في تاريخ الذكاء الاصطناعي، حيث شهد العديد من الابتكارات والتطبيقات الجديدة والنقاشات الجوهرية التي تناولت التحديات الرئيسية المتصلة بتسارع التطورات التكنولوجية، والتنافس الجيوسياسي المحموم، والتغيرات الاجتماعية المتوقعة، والتحولات الاقتصادية الكبرى، والقضايا الأخلاقية المعقدة. كل هذا شكل لوحة متشابكة من تفاعل البشرية مع الذكاء الاصطناعي، ما جعل هذا العام نقطة تحول استثنائية ذات تداعيات عميقة على المستقبل.
جائزة نوبل
وفي اعتراف صريح بأثر الذكاء الاصطناعي، مُنحت جائزتا نوبل لاكتشافين متعلقين بالذكاء الاصطناعي في عام 2024. فقد حصل جيفري هينتون، الذي يُطلق عليه غالباً لقب «عراب التعلم العميق»، على جائزة نوبل في الفيزياء لأعماله الرائدة في الشبكات العصبونية التي تشكل العمود الفقري للذكاء الاصطناعي الحديث، والتي مهدت الطريق لتطبيقات ثورية كالمركبات ذاتية القيادة والتشخيص الطبي وتطبيقات المحادثة الذكية مثل «ChatGPT» الشهير.
وفي الوقت نفسه، حصل ديميس هاسابيس، المؤسس المشارك لشركة «DeepMind» على جائزة نوبل في الكيمياء حيث أظهر قدرة « AlphaFold» الثورية على التنبؤ بالبُنية الجزيئية للبروتين بدقة، وهو اختراق أدى إلى تسريع اكتشاف الأدوية وتقدم فهمنا للبيولوجيا.
تطورات تقنية
تسارعت وتيرة الابتكارات التكنولوجية في مجال الذكاء الاصطناعي بشكل كبير هذا العام. ومن أبرز الابتكارات كان إطلاق شركة «أوبن إيه آي» لنموذج «O1» وهو أول نموذج ذكاء اصطناعي مصمم للاستدلال وشرح استدلالاته كما لو كان «يفكر»، كخطوة ثورية. ولم تعمل قدرة «O1» على التعبير عن المنطق وراء قراراته على تعزيز الشفافية فحسب، بل فتحت أيضاً امكانيات جديدة في التطبيقات التي تتطلب اتخاذ قرارات حاسمة وموثوقة.
واستكمالاً لهذا، أطلقت الشركة نفسها نموذج «سورا»، وهو أحد نماذج الجيل الجديد لإنشاء مقاطع فيديو عالية الدقة والتي تصل مدتها لغاية دقيقة كاملة. وأظهر هذا النموذج فهماً عميقاً للفيزياء البيئية والجماليات، ما دفع حدود الامكانيات في النماذج التوليدية. في الوقت نفسه، قدّمت شركة «غوغل» نموذجها «جيميني 2.0 فلاش»، الذي أحدث ثورة في الأنظمة متعددة الوسائط بقدرته على معالجة كتب ومجموعات بيانات ضخمة، مما وسّع استخداماته في البحث والتعليم والصناعات الإبداعية.
على صعيد الأجهزة، اشتدت المنافسة على تحسين شرائح الذكاء الاصطناعي. ففي الغرب، تفوقت شريحة «غروك» ذات السرعة الفائقة على شريحة «إنفيديا H100» القياسية في السوق، بمعدل عشرة أضعاف لمعالجة النماذج اللغوية الكبيرة «LLMs. وفي الشرق، قدمت شركة «هواوي» شريحة «أسيند 910بي» كرد صيني على القيود الأمريكية المفروضة على تصدير الشرائح المتقدمة، مما زاد من حدة التوترات الجيوسياسية وسلط الضوء على أهمية الابتكار المحلي.
الصراعات السياسية
احتدمت المنافسة الجيوسياسية حول تكنولوجيا الذكاء الاصطناعي هذا العام. فقد أكد حظر الولايات المتحدة تصدير وحدات معالجة الذكاء الاصطناعي «GPUs» إلى الشرق الأوسط، بهدف منع وصولها إلى مشاريع الذكاء الاصطناعي الصينية، على القيمة الاستراتيجية المتزايدة لهذه الموارد الحسابية. تزامن هذا التحرك مع تكثيف الصين لجهودها لتطوير قدرات الذكاء الاصطناعي المحلية، بما في ذلك التطبيقات العسكرية مثل روبوتات القتال ذاتية القيادة. أثارت مثل هذه التطورات المخاوف بشأن سباق تسلح محتمل في الأسلحة ذاتية التشغيل.
ورداً على تحديات عسكرة الذكاء الاصطناعي، ناقشت المنتديات الدولية لوائح تقنيات الذكاء الاصطناعي ذات الاستخدام المزدوج، لكن التوافق ظل بعيد المنال. فقد دعت الدول الأوروبية إلى رقابة عالمية أكثر صرامة وأنشأت ما يعرف بقانون الذكاء الاصطناعي للاتحاد الأوروبي لتنظيم وتقنين استعمال وتطوير الذكاء الاصطناعي، بينما فضّلت الصين والولايات المتحدة حماية مصالحهما الوطنية. إن هذا الوضع يتشابه مع المناقشات المبكرة التي دارت حول الطاقة النووية؛ تلك التكنولوجيا الثورية التي جلبت آمالاً هائلة ومخاطر محتملة في الوقت نفسه. في هذا السياق، برزت شراكات إقليمية، مثل تعاون شركة «ميسترال « AI الأوروبية مع «مايكروسوفت» لتطوير أنظمة تتوافق مع الأطر التنظيمية الأوروبية.
التأثيرات الاجتماعية
تغلغل تأثير الذكاء الاصطناعي في الدينامِيات الاجتماعية، مما تسبب بالإثارة والجدل على حد سواء. فقد اكتسب تطبيق «ChatGPT» الذي طورته «OpenAI» ووكلاء المحادثة المماثلون قوة جذب كمساعدين رقميين، ما أعاد تشكيل التفاعلات في خدمة العملاء والتعليم والرعاية الصحية. ومع ذلك، وفي الوقت نفسه، واجهت هذه الأدوات أيضاً انتقادات بسبب تعزيزها للتحيزات ونشرها معلومات مضللة. فقد واجه نظام «Gemini» الذي طورته «Google» ردود فعل عنيفة بعد إنشاء صور غير دقيقة تاريخياً وغير متسمة بالحساسية، بل ومسيئة ثقافياً، ما أدى إلى مناقشات واسعة النطاق حول دور الضبط الدقيق والمواءمة في أنظمة الذكاء الاصطناعي من أجل توافقه مع القيم المجتمعية.
على صعيد أكثر إشراقاً، أدت الأدوات المدعومة بالذكاء الاصطناعي إلى دمقرطة (إضفاء الطابع الديمقراطي على) الفرص الإبداعية والمهنية مما أدى إلى تمكين الفئات المهمشة اقتصادياً أو اجتماعياً. فقد سهلت منصات مثل «Hugging Face» و«LangChain» على المطورين المستقلين نشر نماذج الذكاء الاصطناعي في تطبيقات متخصصة، ما مَكَّن الشركات الصغيرة والمجتمعات الأقل تمثيلاً من الوصول إلى أحدث التقنيات. كذلك لعب الذكاء الاصطناعي دوراً محورياً في تعزيز الشمولية، مع ابتكارات في أدوات الوصول للأفراد ذوي الإعاقة ودعم اللغات القديمة أو المهددة بالانقراض، مثل مشروع «وولاروو» من شركة «غوغل» الذي يدعم اللغة الأمازيغية ولغات قبائل سكان أمريكا الأصليين.
التحولات الاقتصادية
اقتصادياً، ظل الذكاء الاصطناعي سلاحاً ذا حدين. فقد أدى التبني السريع لنماذج الذكاء الاصطناعي التوليدية إلى تحسين الإنتاجية وفتح آفاق جديدة للإيرادات من الإعلام إلى المستحضرات الصيدلانية. فعلى سبيل المثال، أحدث الكيميائيون الآليون مثل «RoboChem» ثورة في التخليق الكيميائي، مما أدى إلى تحسين العائدات وخفض التكاليف لأبحاث تطوير المستحضرات الصيدلانية. مع ذلك، جاءت هذه التطورات مع اضطرابات كبيرة، حيث أدت الأتمتة إلى فقدان الوظائف في قطاعات مثل التصنيع والأعمال المكتبية، مما أثار مناقشات حول أهمية توفير دخل أساسي عالمي وإنشاء برامج إعادة تدريب القوى العاملة. كما أبرز الضغط على شبكات الطاقة الكهربائية العالمية من مراكز البيانات كثيفة الأجهزة التكاليف البيئية لتوسيع نطاق الذكاء الاصطناعي. لجأت شركات مثل «Microsoft» للمفاعلات النووية الصغيرة لتشغيل مراكز بياناتها وحل المشكلة آنفة الذكر. في ضوء هذه الوقائع، أصبح التقاطع بين الذكاء الاصطناعي والاستدامة البيئية في صدارة الأولويات.
الاعتبارات الأخلاقية
بلغت التحديات الأخلاقية للذكاء الاصطناعي ذروتها في 2024. فقد أدى انتشار تقنيات التزييف العميق إلى اتخاذ إجراءات تشريعية في جميع أنحاء العالم، حيث اقترحت الولايات المتحدة قانون «DEFIANCE» للحد من المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي من دون موافقة. وبالمثل، وسعت لجنة الاتصالات الفدرالية لوائحها لتشمل المكالمات الآلية التي تعمل بالذكاء الاصطناعي، في أعقاب حادثة تم فيها استخدام أصوات مستنسخة للتلاعب بالناخبين خلال الانتخابات.
كما هيمن الحرص على سلامة الذكاء الاصطناعي ومواءمته للاعتبارات الأخلاقية على الخطاب في 2024. حيث ظهرت منصات مثل «Hugging Face» لتصنيف النماذج اللغوية الكبيرة بناءً على مقاييس مثل السلامة والعدالة مع تصاعد التساؤلات حول الشفافية والمساءلة لهذه النماذج. أدى طرح أنظمة الذكاء الاصطناعي في المجالات الحساسة، مثل إنفاذ القانون والرعاية الصحية، إلى إعادة إثارة المخاوف بشأن التحيز الخوارزمي واحتمال حدوث ضرر. علاوة على ذلك، أبرزت المناقشات حول ما إذا كان ينبغي للنماذج اللغوية الكبيرة محاكاة التفكير الأخلاقي البشري أو تبني مبادئ توجيهية أخلاقية عالمية مدى تعقيد مواءمة أنظمة الذكاء الاصطناعي مع القيم المجتمعية.
الأثر البيئي
أصبح العبء البيئي لتطوير الذكاء الاصطناعي مصدر قلق بالغ في عام 2024. ذلك لأن تدريب نماذج الذكاء الاصطناعي الكبيرة يحتاج إلى كميات هائلة من الكهرباء، حيث يُقال إن دورة تدريب أحد نماذج «OpenAI» تستهلك ما يقدر بنحو 1287 ميغاوات في الساعة – أي ما يعادل استهلاك الكهرباء السنوي لأكثر من 120 منزلاً أمريكياً. وبالمثل، تطلب تدريب نموذج «Gemini» من «Google» ما يقرب من 1.5 مليون لتر من الماء لتبريد مراكز البيانات الخاصة به، وهي مشكلة حاسمة في المناطق التي تعاني من شح المياه. وأبرزت هذه الإحصائيات الطبيعة غير المستدامة للممارسات الحالية، التي تضغط بدورها على شبكات الطاقة في جميع أنحاء العالم وتزيد الاعتماد على مصادر الطاقة غير المتجددة. ونتيجة لذلك، واجهت الشركات ضغوطًا متزايدة لاعتماد ممارسات أكثر استدامة ومراعاة للبيئة، مثل الاستفادة من مصادر الطاقة المتجددة واستكشاف الابتكارات في الأجهزة الموفرة للطاقة.
خاتمة
هذه العُجالة المبسطة الموجهة لغير المختصين تُظهر أن الذكاء الاصطناعي ليس مجرد ظاهرة تقنية، بل هو ظاهرة مجتمعية ستسهم في إعادة تشكيل كل جانب من جوانب الحياة البشرية. غير أنه يتوجب القول إنه بمقدار ما تُظهر الاختراقات التكنولوجية المتسارعة إمكانيات الذكاء الاصطناعي المذهلة، فإن الصراعات الجيوسياسية والمخاوف الأخلاقية والبيئية تسلط الضوء على أيجاد حلول للتحديات الكبرى التي يفرضها، بما يخدم البشرية وبما يحفظ التوازن بين الابتكار والمسؤولية