كشفت دراسة حديثة صادرة عن منصة CodeRabbit أن الأكواد البرمجية التي يتم توليدها باستخدام أدوات الذكاء الاصطناعي تحتوي على عدد أكبر من المشكلات والثغرات الأمنية مقارنة بتلك التي يكتبها المطورون البشر، رغم ما توفره هذه الأدوات من سرعة وكفاءة في إنجاز المهام.
ارتفاع معدل المشكلات في الكود المولد آليًا
وأظهرت البيانات أن متوسط عدد المشكلات في طلبات الدمج (Pull Requests) التي ينتجها الذكاء الاصطناعي بلغ 10.83 مشكلة، مقابل 6.45 مشكلة فقط في الكود الذي يكتبه البشر.
كما بينت الدراسة أن الكود المولد بالذكاء الاصطناعي يحتوي على:
- زيادة بنسبة 1.4 ضعف في المشكلات الحرجة.
- زيادة بنسبة 1.7 ضعف في المشكلات الكبرى.
أنواع الثغرات الأكثر شيوعًا
ورصدت الدراسة أن أبرز المشكلات المرتبطة بالكود المولد بالذكاء الاصطناعي تركزت في:
- الأمان: ضعف حماية كلمات المرور، استخدام مراجع غير آمنة، ثغرات XSS، ومخاطر إلغاء التسلسل غير الآمن.
- الأداء والمنطق: أخطاء في صحة المنطق البرمجي (Correctness) ومشكلات تؤثر على كفاءة الأداء.
- جودة وصيانة الكود: ضعف التنظيم وقابلية الصيانة على المدى الطويل.
مكاسب حقيقية رغم المخاطر
ورغم هذه التحديات، أظهرت الدراسة بعض الجوانب الإيجابية لاستخدام الذكاء الاصطناعي، حيث:
- انخفضت الأخطاء الإملائية بنسبة 1.76 ضعفًا أقل.
- تراجعت مشكلات اختبارات الكود بنسبة 1.32 ضعفًا أقل.
رأي الخبراء
وقال ديفيد لوكر، مدير الذكاء الاصطناعي في CodeRabbit، إن أدوات الذكاء الاصطناعي “تسهم في رفع الإنتاجية بشكل واضح، لكنها في الوقت نفسه تخلق نقاط ضعف متوقعة يجب على المؤسسات التعامل معها بوعي وإدارة فعالة”.
دور البشر لا غنى عنه
وأكدت الدراسة أن الكود المولد بالذكاء الاصطناعي لا يمكن أن يكون بديلًا كاملًا للمطورين البشر، بل يحتاج إلى مراجعة دقيقة لضمان مستويات الأمان والجودة المطلوبة.
وفي المقابل، يمكن لهذه الأدوات أن تسرّع المهام الروتينية والمراحل الأولية من التطوير، بينما يتحول دور المطورين إلى الإشراف والمراجعة والتحسين.
ومع التطور المستمر لنماذج الذكاء الاصطناعي مثل عائلة GPT، من المتوقع أن تنخفض نسبة الأخطاء تدريجيًا، إلا أن المراجعة البشرية ستظل عنصرًا أساسيًا لا يمكن الاستغناء عنه في تطوير البرمجيات الآمنة وعالية الجودة.




