القاهرة 17 يوليو 2024 الساعة 05:58 م
بقلم: عمرو خان
سريعة هي التغيرات التكنولوجية في عصرنا الحديث؛ شكلًا ومضمونًا، وزاد من مدى سرعتها القدرة الهائلة لتكولوجيا الذكاء الاصطناعي (AI) التي باتت أكثر تطورًا بين اللحظة والأخرى.
لقد فرضت علينا التكنولوجيا شراكة في حياتنا اليومية؛ حتى أصبحت جزءًا لا يتجزأ من أداواتنا الأساسية في العمل العام والخاص، وفي أدق تفاصيل احتياجاتنا الشخصية، والخطير في هذا الأمر أن هذا الشراكة لا تقتصر على البالغين فقط؛ بل إنها امتدت عنوة إلى الشباب المراهقين والأطفال، واستطاعت الاستحواذ على أعز ما يملكون في حياتهم، وهما الوقت والعقل.
إذن كيف يمكن اكتشاف مخاطر هذا التغول التكنولوجي؟ وما هي آليات التصدي له؟ وماذا نفعل من أجل حماية أنفسنا وذوينا من تآكل خصوصيتنا في ظل الشراكة التكنولوجية المفروضة علينا في عصرنا الحديث؟
لا جدال في أن التكنولوجيا تعد قوة جبارة للخير. ومع ذلك، فإن الجانب المظلم لهذه التقنيات يكمن في إمكانية استخدامها بشكل سلبي، مما قد يهدد خصوصيتنا وأمننا وحتى حقوقنا الأساسية، لذا يجب أن نتعرف على أوجه الاستخدامات السلبية للتكولوجية الحديثة والمتطورة، وأبرز مثال سيكون الذكاء الاصطناعي.
• الاستخدامات السلبية للذكاء الاصطناعي:
تُستخدم تقنيات الذكاء الاصطناعي في (المراقبة الجماعية والتجسس) أي تطوير أنظمة المراقبة المتقدمة التي تتيح للحكومات والشركات مراقبة المواطنين على نطاق واسع، ويمكن أن يؤدي ذلك إلى انتهاك الخصوصية.
كما تتيح تقنية (التزييف العميق Deepfakes) إنشاء مقاطع فيديو وصور مزيفة بدقة عالية، مما يمكن استخدامه لتضليل الجمهور ونشر المعلومات الكاذبة، مما يهدد مصداقية وسائل الإعلام، ويؤدي إلى زعزعة الثقة في الأخبار والمصادر الموثوقة.
وكذلك تحدث (الهجمات الإلكترونية) باستخدام الذكاء الاصطناعي أو الأنظمة الذكية اكتشاف الثغرات واستغلالها بشكل أسرع وأكثر فعالية، مما يعرض الشركات والأفراد لخطر كبير من الاختراقات وسرقة البيانات.
وهناك مخاطر حديثة العهد بالبشرية مثل ( التحيز في القرارات التلقائية) إذ قد يؤدي استخدام الذكاء الاصطناعي في اتخاذ القرارات التلقائية، مثل التوظيف والقروض، إلى تعزيز التحيزات الموجودة في البيانات المستخدمة لتدريب هذه الأنظمة، مما يؤدي إلى تمييز غير عادل ضد بعض الفئات الاجتماعية.
• العواقب المحتملة للاستخدام السلبي للتكولوجيا الذكية:
يمكن أن يؤدي الاستخدام السلبي للتكنولوجيا إلى تداعيات خطيرة تشمل: تآكل الخصوصية الشخصية، وزيادة الجرائم الإلكترونية، وتعزيز التمييز والظلم الاجتماعي، وزعزعة استقرار النظم السياسية والاجتماعية.
إذن ما العمل؟ ما هذه القوة الجبارة التي قد يستخدمها البعض كقوة معززة للأعمال الشريرة؟
أوصت العديد من الأبحاث العلمية الحديثة بمجموعة من التوصيات التي تتعلق باستراتيجيات السلوك التكنولوجي، أو أخلاقيات استخدام تكنولوجيا الذكاء الاصطناعي والأدوات المساعدة الذكية في إتمام الأعمال، وجاء على قائمة هذه التوصيات: التشريعات، والتنظيم، والتوعية، والتعليم، والتعاون الدولي، وتطوير أنظمة ذكية مسؤولة.
ويقصد هنا بالتشريعات والتنظيم، هو ضرورة وضع تشريعات صارمة لتنظيم استخدامات الذكاء الاصطناعي والتكنولوجيا المتطورة، وضمان استخدامها بشكل أخلاقي ومسؤول.
أما تعزيز التوعية فيجب أن تكون حول المخاطر المحتملة للاستخدام السلبي للتكنولوجيا، وتثقيف الجمهور حول كيفية حماية خصوصيتهم وأمنهم الرقمي.
بينما ذكرت التوصيات العلمية بأن هناك دور محوري ورئيسي للتعاون الدولي فيما يتطلب لمواجهة التحديات التي تفرضها التكنولوجيا المتطورة، على أن يكون تعاوناً دولياً لتعزيز الأمن السيبراني، ووضع معايير عالمية لاستخدام الذكاء الاصطناعي.
مع الأخذ في الاعتبار ضرورة العمل على تطوير أنظمة ذكية تعزز الشفافية وتقلل من التحيزات، لضمان أن تكون التكنولوجيا قوة إيجابية في المجتمع.
وأخيرًا؛ أود أن أقول إنه رغم الفوائد العديدة التي تقدمها التكنولوجيا المتطورة، فإن الاستخدام السلبي للذكاء الاصطناعي يمكن أن يشكل تهديداً حقيقياً لمستقبلنا، ومن الضروري أن نكون واعين لهذه المخاطر، وأن نتخذ الخطوات اللازمة لضمان استخدام هذه التقنيات بشكل مسؤول وأخلاقي، بما يضمن حماية حقوقنا وخصوصيتنا وأمننا.
|