رئيس مجلس الإدارة : د. خالد بن ثاني آل ثاني

Al-sharq

رئيس التحرير: جابر سالم الحرمي

الشرق

مساحة إعلانية

مساحة إعلانية

م. عمران ياسين

• باحث أكاديمي ومتخصص في الذكاء الاصطناعي

مساحة إعلانية

مقالات

258

م. عمران ياسين

لا تأمن لنفسك أمام ChatGPT

07 ديسمبر 2025 , 03:52ص

في السنوات الأخيرة، تحولت تقنيات الذكاء الاصطناعي من أدوات تجريبية محدودة الوظائف إلى أنظمة قادرة على تحليل النصوص، وصياغة الأفكار، والتفاعل مع المستخدمين بطريقة تشبه البشر. هذا التطور السريع جعل أدوات مثل شات جي بي تي رفيقًا يوميًا لملايين الأشخاص حول العالم، سواء في العمل أو الدراسة أو البحث أو حتى في القرارات الشخصية. فمنهم من جعله مستشاراً مالياً أو نفسياً أو صحياً أو حتى تعليمياً أو قانونياً لما يمتلكه من سرعة فائقة في اقتراح الحلول والنصائح والإرشادات التي تروق للبعض في تحدٍّ خطير عجز عن فعله البشر في نفس الآن.

فالبشر بشكل عام يميلون للانفتاح على الأدوات التي تبدو ذكية ومتفهمة، وقد يكشفون لها ما لا يكشفونه لغيرها، مما يؤدي إلى أن يصبح الذكاء الاصطناعي مساحة تسرّب غير معلن للمعلومات. وهنا تكمن الحاجة الملحّة إلى وضع دستور أخلاقيات واضحة من باب احترام سياسة خصوصية المستخدم وليس من باب الخوف ومنع أنفسنا من السلوك المفرط في الثقة تجاهها. الإعلان من قبل الرئيس التنفيذي لشركة OpenAI، سام ألتمان، أثار زيادة كبيرة في الوعي العام عندما ذكر بشكل خاص أن ChatGPT يمكن تدريبه أو استخدامه لمشاركة المحادثات للتطوير أو التدريب، ما لم يقم المستخدم بتعطيل هذه الخدمة أو الخاصية أو الالتزام بإعدادات الخصوصية المشددة. هذا الاعتراف العام أعاد انتباه الجميع إلى السؤال الجوهري: هل نتواصل مع روبوت محايد؟ أم نترك علامات وبصمات رقمية قد تُستخدم لاحقًا كبيانات للعرض أو التحليل أو الإساءة أو الاستفادة منها؟

 نظرًا لأن المحادثات يمكن مراجعتها لتحسين نموذجها، فإن مشاركة المعلومات الخاصة - سواء كانت مالية أو قانونية أو شخصية - يمكن أن تكون خطرًا حقيقيًا، ليس فقط للخصوصية ولكن للأمن الرقمي أيضًا. لذا، من الضروري للمستخدمين أن يفهموا أن الشاشة التي يكتبون عليها ليست صندوقًا مغلقًا، بل هي مكان يمكن اختراقه للتحليل ومساحة قابلة للوصول والأشياء التي يكتبونها يمكن أن يحاكموا عليها في سياقات غير متوقعة. ومع ذلك، يجب ألا يتحول الحديث عن المخاطر إلى حالة خوف غير مدروسة. فلا يمكن اعتبار الذكاء الاصطناعي عدواً، بل هو أداة قوية للغاية تتطلب إدارة فعالة تمامًا كما هو الحال مع أي تقنية جيدة وناجحة. يمكن أن تكون قدرات الذكاء الاصطناعي في التحرير وإعادة الصياغة والبحث واتخاذ قرارات أفضل ومفيدة للمستخدمين بطريقة أو بـ أخرى دون التفريط بخصوصيتهم. معرفة أن هناك حدودا كافية، وتجنب المعلومات الحساسة/ أو بيانات قابلة للتتبع، وأن يتأكد من إعدادات الخصوصية قبل استخدام أي منصة مدعومة بالذكاء الاصطناعي. 

الوعي هو السلاح الأقوى، فهو الذي يضمن لنا علاقة متوازنة مع التكنولوجيا، فلا نبالغ في الثقة ولا نبالغ في الخوف. إن الذكاء الاصطناعي بوضعه الحالي لا يمتلك نية ولا إرادة، لكنه يعمل وفق ما يُقدَّم له، ومن هنا تأتي أهمية أن نكون نحن أكثر حرصًا حين نقدّم له معلوماتنا. في النهاية، الأخلاقيات ليست مسؤولية الشركات فقط، بل مسؤولية المستخدم أيضًا في أن يعرف ماذا يشارك، ولماذا يشارك، وأين يمكن أن تذهب كلماته بعد أن يضغط زر الإرسال.الأخلاقيات خلقت للبشر وميزتهم عن غيرهم لوجود العقل، فاعرف أين تكتب كلماتك واعلم لمن تشارك معلواتك وإني كنت لكم من الناصحين.

مساحة إعلانية