نشرت غرفة التجارة الأمريكية، تقريراً يدعو إلى تنظيم تقنية الذكاء الاصطناعي في البلاد. ويحث التقرير -وفقًا لما نقلته رويترز– صانعي القرار وقادة الأعمال على إنشاء إطار تنظيمي لضمان استخدام التقنية بمسؤولية لتقليص خطره على الأمن القومي وبشكلٍ لا يؤثر على نمو هذه الصناعة. ويُعتبر هذا موقفًا نادرًا من غرفة التجارة التي عُرِفَت بمواقفها المناهضة للتنظيم.
ويأتي التقرير بينما يتزايد الاهتمام في الولايات المتحدة ودول أخرى بتقنيات الذكاء الاصطناعي، بما في ذلك برنامج ChatGPT الذي يعتبر من البرامج الناشئة والتي تتمتع بقدرتها على الإجابة بسرعة على مجموعة واسعة من الاستفسارات، إلا أن تأثيره على الأمن القومي والتعليم يُثير المخاوف بين البرلمانيين الأمريكيين.
ويشير التقرير إلى توقعاتٍ بأن يضيف الذكاء الاصطناعي 13 تريليونًا من الدولارات إلى النمو الاقتصادي العالمي بحلول عام 2030، وأنه قدم مساهمات هامة مثل رصد حرائق الغابات لتسريع استجابة مسؤولي إدارة الطوارئ. ومع ذلك، يشدد التقرير على ضرورة الاستعداد للانتشار المتزايد لهذه التكنولوجيا ومخاطرها المحتملة.
وتؤكد الغرفة في تقريرها أن “كل شركة وجهاز حكومي سيستخدم الذكاء الاصطناعي في غضون 20 عامًا”. ويعتبر هذا التقرير جزءاً من لجنة الذكاء الاصطناعي التي أنشأتها الغرفة العام الماضي، والتي تعترف بالدور الحاسم الذي ستلعبه الشركات في استخدام وإدارة هذه التقنية.
ومع الوقت الذي تُطالب فيه بمزيد من التنظيم، أشارت غرفة التجارة إلى ضرورة تفادي تطوير إطار تنظيمي يُطبّق بالشكل نفسه على الجميع، وأكدت على ضرورة اتباع منهج مرن يضع القواعد والممارسات الموصى بها لكل صناعة من الصناعات حسب الحاجة.
وما زال مجال الذكاء الاصطناعي يفتقر إلى وجود قوانين ناظمة له عالميًا، وهو ما أثار مخاوف الكثيرين بسبب استخدامه لأغراض مثل الغش في كتابة الواجبات المدرسية أو لكتابة الأخبار الكاذبة، كما ذكرت تقارير أن القراصنة يستخدمونه لمساعدتهم في كتابة البرمجيات الخبيثة.
وفي هذا الصدد، أطلق الاتحاد الأوروبي في عام 2021 مشروعًا لتنظيم الذكاء الاصطناعي باسم The AI Act كأول مشروع من نوعه في العالم لوضع القوانين الناظمة لتقنيات الذكاء الاصطناعي بهدف الوصول إلى قوانين قد تصل إلى منع الشركات من استخدام الذكاء الاصطناعي في مجالات معينة.
ووفقًا لما يرد في الموقع الإلكتروني الخاص بالقانون المُقترح، تُقسَم تطبيقات الذكاء الاصطناعي إلى ثلاثة أنواع:
- غير مقبولة: وهي التطبيقات المُستخدمة لمراقبة وتتبُّع الأفراد، وهي ما يسعى القانون المُقترح إلى منعه تمامًا.
- عالية الخطورة: كالتطبيقات التي تُستخدم لمراجعة السّير الذاتية وتصنيفها بشكل آلي، وهي تطبيقات يجب أن تخضع لمُتطلبات قانونية معينة.
- كل ما عدا ذلك: وهي أية تطبيقات لا تنتمي إلى التصنيفين السابقين، إذ سيُسمح لها العمل من دون تنظيم.
وتخشى العديد من الشركات المطوّرة لتطبيقات الذكاء الاصطناعي أن تؤثر القوانين التنظيمية المحتملة على عملها، فالتنظيم قد يعني وجود متطلبات قانونية قاسية؛ على الشركات الالتزام بها وهو ما يزيد من التكاليف ويُبطئ من سرعة التطوير.
وفي حال لجأت الولايات المتحدة أو الاتحاد الأوروبي إلى طرح مثل هذه القوانين، فهذا يعني إجبار الشركات على تعديل وربما تقليص إمكانيات برامجها كي تتوافق مع ما تفرضه القوانين الجديدة.
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة البوابة العربية للأخبار التقنية ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من البوابة العربية للأخبار التقنية ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.