وقفت مؤخرا على مقال منشور في صحيفة «القدس العربي» بعنوان «الذكاء الاصطناعي في الأدب: دعم مشروع أم خيانة للإبداع؟» للكاتب الجزائري مولود بن زادي. يجادل الكاتب حول أهمية ومشروعية استخدام الذكاء الاصطناعي في الكتابة الأدبية، ويشترط ذلك بقصر هذا الاستخدام على المهام التي كانت موكلة في الأصل للمحرر البشري، مثل التدقيق اللغوي والاقتراحات الأسلوبية. هذه الفكرة وجيهة وأنا أتفق مع الكاتب بشأنها، فعملية التحرير والتدقيق هي من بين المهام التي يمكن إسنادها بشكل أخلاقي لأدوات الذكاء الاصطناعي. لكن الكاتب، في سعيه لتعزيز هذه الأطروحة وإضفاء الإقناع عليها، يستند إلى مجموعة من الافتراضات الخاطئة تماما حول طبيعة هذه التقنية وآليات عملها، ما يكشف عن جهل مقلق بالأسس التقنية التي تحكم هذه الأدوات.
يقول الكاتب في معرض دفاعه عن استخدام الذكاء الاصطناعي: «لا ضرر إطلاقا في استخدام الذكاء الاصطناعي أداة للبحث؛ فذلك أشبه بلجوء الكاتب إلى الإنترنت لجمع المعلومات، مع فارق جوهري ـ إذ يتطلب البحث التقليدي التنقّل بين مصادر متعددة وفرز كم كبير من البيانات، بينما يقدّم الذكاء الاصطناعي إجابات أكثر دقة وتركيزا، ما يوفر الوقت والجهد». هذا القول، للأسف، خاطئ تماما ويُظهر سوء فهم عميق وجذري لجوهر ما يُسمى بـ»الذكاء الاصطناعي» والآليات المعقدة التي تحكم عمله.
إن الادعاء بأن الذكاء الاصطناعي يقدم «إجابات أكثر دقة وتركيزاً» هو قول ينافي تماما البنية الهندسية والتقنية لهذه الأدوات، ويكشف عن جهل مطلق بطبيعة عملها الأساسية. إن ما يُسمى بالنماذج اللغوية الكبيرة، وهي التسمية الدقيقة للبناء الداخلي وراء أدوات مثل ChatGPT وأمثالها، لا «تفهم» ولا «تعرف» بالمعنى البشري للكلمة، ولا تملك أي إدراك حقيقي للمحتوى الذي تتعامل معه. هذه النماذج (المسماة مجازا أدوات الذكاء الاصطناعي)، في جوهرها العميق، ليست سوى محركات توليد إحصائية هائلة ومعقدة، وظيفتها الوحيدة والأساسية هي التنبؤ بالكلمة التالية في تسلسل لغوي معين، بناءً على الأنماط الإحصائية المعقدة التي استخرجتها من البيانات النصية الضخمة التي تدربت عليها.
يعتمد هذا النظام على حساب الاحتمالات الإحصائية للكلمات التي قد تأتي بعد تسلسل معين من الكلمات، لكن على نطاق هائل يشمل ملايين المعاملات والمتغيرات. هذا النظام يتعلم من خلال «قراءة» كميات ضخمة من النصوص المأخوذة من الإنترنت والكتب والمقالات والمنتديات، ويستخرج منها أنماطاً إحصائية معقدة حول كيفية ترابط الكلمات والجمل والأفكار. لكن هذا «التعلم» ليس فهماً بالمعنى الحقيقي، بل هو محض عملية رياضية معقدة لاستخراج الارتباطات الإحصائية بين العناصر اللغوية المختلفة. هذه الآلية الأساسية في عمل النماذج اللغوية لا تسمح لها بالتوقف والقول «لا أعرف» أو «هذه المعلومة غير متوفرة لديّ»، على العكس من ذلك، فهي مصممة لتقدم جوابا في كل الحالات، أي جواب، مهما كانت طبيعة السؤال، أو درجة تعقيده، طالما كان هذا الجواب متماسكا من الناحية اللغوية ومقنعاً من الناحية الإحصائية. هذا هو ما يُصطلح عليه في الأدبيات التقنية المتخصصة بـ»الهلوسة»، وهو الميل المرضي (إن صحت العبارة) إلى اختراع وإنتاج إجابات ومعلومات وحقائق تبدو معقولة ومنطقية ومقنعة على المستوى السطحي، لكنها مختلقة تماما أو محرفة ولا أساس لها في الواقع.
صحيح أن هذه الأدوات تشهد تطوراً مستمرا وملحوظا، وأن مستوى «الهلوسة» اليوم أقل بكثير مما كان عليه قبل عام، بفضل التحسينات المستمرة في آليات التدريب وتقنيات التحكم في المخرجات، لكن الاعتماد عليها كمصدر أساسي أو وحيد لـ»الدقة» و»التركيز» في المعلومات يبقى أمراً محفوفا بالمخاطر الجدية، ويتطلب درجة عالية من الحذر والتحقق المستقل من المعلومات المستقاة منها. المشكلة الأخرى هي غياب الشفافية والإسناد المرجعي. فأنت عندما تبحث في محركات البحث، أو مباشرة في الكتب، تكون لديك مصادر بين يديك يمكنك التحقق من مصداقيتها ودقتها. أما استخدام أدوات النمذجة اللغوية لتوليد النصوص، فتقدم لك «الخلاصة» من مجموعة من المصادر لا تعرف عنها شيئا، ولا يمكنك مراجعتها للتحقق من صدقيتها. الذكاء الاصطناعي هنا لا «يهلوس»، أي لا يخترع جوابا لا وجود له، بل يقدم لك جوابا مما هو مخزن لديه، لكن ما هو مخزن لديه إنما هو من ملايين من المصادر متفاوتة الجودة والمصداقية، والخلاصة المكثفة التي تحصل عليها من مخرجات الذكاء الصناعي لا يمكنك التحقق منها، إلا بالعودة إلى البحث المدقق المفصل بالطرق البحثية التقليدية. ثمة إشكالية أخرى لا تقل أهمية، وهي أن هذه النماذج ليست على اتصال دائم ومباشر بالمعرفة الآنية والمستجدات الحديثة، على العكس من محركات البحث التقليدية، التي تُحدَّث على مدار الساعة وتعكس آخر المعلومات المتاحة على الشبكة. فبسبب التكلفة الباهظة، والوقت الطويل المطلوب لعملية التدريب المعقدة، تكون بيانات النموذج اللغوي محدودة ومقيدة بتاريخ معين. فأداة مثل ChatGPT، مبنية على نموذج لغوي يعتمد على بيانات محدَّثة إلى حدود يونيو/حزيران 2024، وهذا يعني أنه يجهل تماما أي حدث، أو اكتشاف، أو تطور، أو معرفة جديدة ظهرت بعد ذلك التاريخ. إنه، بمعنى من المعاني، سجين لحظة زمنية معينة ومحددة، ويقدم إجاباته وتحليلاته بناءً على خريطة قديمة ومتجمدة للعالم، ما لم يتم ربطه بأدوات بحث خارجية ومساعدة، وهي أدوات لا تزال محدودة القدرات وغير دقيقة بما يكفي لتغني عن الاستخدام البشري المباشر والمتخصص لأدوات البحث والتحقق.
في نهاية المطاف، القضية الأساسية ليست في مشروعية استخدام الذكاء الاصطناعي كأداة مساعدة في الكتابة والبحث من عدمها، فهذه التقنية، مثلها مثل القلم، أو الحاسوب، أو أي أداة تقنية أخرى، هي أداة محايدة في جوهرها، وقيمتها الفعلية ومخاطرها تتحدد في النهاية بمستوى وعي مستخدمها وفهمه لطبيعتها وحدودها وإمكانياتها الحقيقية. الخطر الحقيقي والجدي يكمن في الترويج لهذه الأداة والدعوة لاستخدامها، بناءً على فهم سطحي ومضلل ومفرط في التفاؤل حول قدراتها الفعلية وحدودها الواضحة. إن استخدام الذكاء الاصطناعي دون وعي نقدي عميق بآليات عمله الأساسية، ودون إدراك واضح ومتيقظ لمفاهيم مثل «الهلوسة» وغياب المرجعية وقيود البيانات الزمنية، سيوقع المرء في أخطاء فادحة لا تغتفر.
روائي مغربي