قال إيلون ماسك إن نماذج الذكاء الاصطناعي، مثل GPT-4o والتي يعتمد عليها روبوت الدردشة ChatGPT، تستهلك كميات هائلة من بيانات الإنترنت.
ويتعلم الذكاء الاصطناعي بناء على البيانات المأخوذة في الإنترنت تحديد الأنماط في المعلومات، مما يسمح له، على سبيل المثال، بتوقع كلمة تالية في الجملة، وتقديم إجابات بلغة مفهومة للبشر.
وحسب ماسك، فإن المطورين سيضطرون للجوء إلى البيانات “الاصطناعية”، أي المواد التي تنشئها نماذج اللغة الكبيرة نفسها، وتحدث مثل هذه العملية بالفعل في ظل التطورات التكنولوجية السريعة.
بينما حذر ماسك من احتمال حدوث انهيار في شبكات الذكاء الاصطناعي، وأشار إلى مخاطر استخدام “البيانات الاصطناعية”، قائلا: “إن الشبكات العصبية ستكون عرضة للهلوسة، أي ستميل إلى اصطناع نتائج غير دقيقة وغير منطقية أو خالية من أي مغزى، وقد تصبح عديمة الفائدة تماما، فكيف يمكننا معرفة ما إذا كانت هذه النتيجة هلوسة أم إجابة حقيقية؟!”.
عندما تعتمد نماذج الذكاء الاصطناعي على بيانات اصطناعية أو تكرر نفسها بشكل مفرط، قد تنتج نتائج غير دقيقة أو غير منطقية. وهذه الظاهرة تُعرف بالهلوسة، حيث يُقدم النموذج معلومات تبدو مقنعة، لكنها خاطئة أو غير ذات معنى. وعلى سبيل المثال، قد يُجيب الذكاء الاصطناعي على سؤال بجملة تبدو صحيحة نحويا، ولكنها خالية من الصحة.
ومع زيادة استخدام البيانات التي تُنشئها نماذج الذكاء الاصطناعي نفسها، قد تتدهور جودة البيانات بمرور الوقت، وذلك بسبب أن النماذج قد تكرر الأخطاء أو تُضخم التحيزات الموجودة في البيانات الأصلية.
ويجب أن تعتمد نماذج الذكاء الاصطناعي على بيانات عالية الجودة ومتنوعة، مع تقليل الاعتماد على البيانات الاصطناعية. يتطلب ذلك تعاونا بين المطورين والخبراء في مختلف المجالات لضمان دقة المعلومات.
ويمكن تطوير أنظمة تحقق تلقائية لتقييم دقة الإجابات التي يقدمها الذكاء الاصطناعي، وعلى سبيل المثال، استخدام مصادر موثوقة للتحقق من الحقائق أو مقارنة النتائج مع بيانات أخرى. وفي المجالات الحساسة يمكن أن يلعب البشر دورا رئيسيا في مراجعة وتدقيق النتائج التي يقدمها الذكاء الاصطناعي. وهذا يمكن أن يساعد في تقليل الأخطاء والهلوسة.