رئيس مجلس الإدارة : د. خالد بن ثاني آل ثاني

Al-sharq

رئيس التحرير: جابر سالم الحرمي

الشرق

مساحة إعلانية

مساحة إعلانية

م. عمران ياسين

• باحث أكاديمي ومتخصص في الذكاء الاصطناعي

مساحة إعلانية

مقالات

300

م. عمران ياسين

الذكاء الاصطناعي والـ HR.. من يوظّف من؟

20 يناير 2026 , 02:19ص

أصبح الذكاء الاصطناعي في الآونة الأخيرة جزءًا لا يتجزأ من منظومة الموارد البشرية، حيث تُستخدم أدواته في فرز السير الذاتية وتحليل طلبات التوظيف وأداة مرجعية للتنبؤ بأداء الموظفين، بل وأحيانًا اتخاذ قرار القبول أو الرفض بشكل شبه كامل. ورغم أن هذه التقنيات التي وُجدت أساسًا لتسهيل العمل وتسريع الإجراءات وتقليل التحيّز البشري، إلا أن الاعتماد المفرط عليها يفتح بابًا واسعًا لمخاطر مهنية واجتماعية وأخلاقية عميقة. من وجهة نظري، تسليم أدوات الذكاء الاصطناعي مهمة البحث عن عمل أو قبول المرشحين دون مراجعة عقلية وميدانية من الإنسان يُعد خطأً استراتيجيًا قد ينعكس سلبًا على الفرد والمؤسسة والمجتمع ككل.

أولى هذه المخاطر تتجلى في المجال المهني ذاته، حيث يعتمد الذكاء الاصطناعي على أنماط ثابتة وكلمات مفتاحية ونماذج سابقة. هذا الأسلوب يشجّع، بشكل غير مباشر، على ظهور سير ذاتية “مصمّمة للخوارزمية” لا تعكس بالضرورة الكفاءة الحقيقية للمرشح. كثير من المتقدمين باتوا يستخدمون أدوات ذكاء اصطناعي لكتابة سير ذاتية مثالية شكليًا، مليئة بالمصطلحات الرنّانة والإنجازات العامة، لكنها تخفي ضعفًا حقيقيًا في الخبرة أو مبالغة يصعب كشفها آليًا. هنا يظهر الفرق الجوهري بين الآلة والعقل البشري؛ فالموظف المختص في الموارد البشرية قادر، عبر الحوار والتحليل والسؤال المتعمق، على اكتشاف التناقضات والأساليب الملتوية التي لا تراها الخوارزميات.

أما على المستوى الاجتماعي، فإن الخطر يصبح أكثر اتساعًا. الذكاء الاصطناعي لا يفهم السياق الإنساني ولا الظروف الحياتية المعقدة. هو لا يدرك معنى أن يكون المرشح قد انقطع عن العمل بسبب ظرف عائلي، أو تأخر أكاديميًا بسبب وضع اقتصادي، أو اكتسب خبرته من العمل الميداني لا من الشهادات الرسمية. الاعتماد الكامل على التقييم الآلي قد يؤدي إلى إقصاء فئات كاملة من المجتمع، خاصة أولئك الذين لا تتوافق مساراتهم مع “النموذج المثالي” الذي بُرمجت عليه الأنظمة. بذلك، يتحول التوظيف من أداة للعدالة الاجتماعية إلى عامل يعمّق الفجوة والتمييز، ولو بشكل غير مقصود.

وفي المجالات الحساسة مثل التعليم، الصحة، والهندسة، تتضاعف المخاطر. اختيار معلم، أو ممرض، أو مهندس بناء بناءً على مطابقة رقمية فقط قد يؤدي إلى كوارث حقيقية. فهذه المهن لا تعتمد على المهارات التقنية وحدها، بل على القيم، والأخلاق، والقدرة على اتخاذ القرار في ظروف إنسانية معقدة. الذكاء الاصطناعي عاجز عن تقييم التعاطف، المسؤولية، أو النزاهة المهنية، وهي عناصر لا غنى عنها في هذه القطاعات. الخطأ هنا لا يكون مجرد قرار توظيف غير موفق، بل قد يتحول إلى خطر مباشر على حياة الناس وجودة الخدمات.

من هنا، أرى أن الحل لا يكمن في رفض الذكاء الاصطناعي، بل في ضبط دوره. يجب أن يبقى أداة مساعدة تدعم القرار البشري، لا سلطة بديلة عنه. المراجعة العقلية والميدانية من قبل مختصين في الموارد البشرية ليست رفاهية، بل ضرورة أخلاقية ومجتمعية. فالتوظيف ليس عملية تقنية بحتة، بل فعل إنساني يحدد مستقبل الأفراد واستقرار المؤسسات. وعندما نسمح للآلة أن تختار الإنسان دون إشراف الإنسان، فإننا نخاطر بأن نُوظِّف الخوارزمية، لا الكفاءة، ونبني مجتمعًا تحكمه الصيغ لا القيم.

مساحة إعلانية