Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
منوعات

هل يجب أن تستخدم الحكومات حقًا منظمة العفو الدولية لإعادة تشكيل الدولة؟


تريد إدارة ترامب تبسيط حكومة الولايات المتحدة ، باستخدام الذكاء الاصطناعي لزيادة الكفاءة

Greggory Disalvo/Getty Images

ما هو الذكاء الاصطناعي؟ إنه سؤال أن العلماء كانوا يتصارعون منذ فجر الحوسبة في الخمسينيات من القرن الماضي ، عندما سأل آلان تورينج: “هل يمكن أن تفكر الآلات؟” الآن بعد إطلاق نماذج اللغة الكبيرة (LLMS) مثل ChatGPT على العالم ، لم يكن العثور على إجابة أكثر إلحاحًا.

على الرغم من أن استخدامها قد أصبح واسع النطاق بالفعل ، إلا أن المعايير الاجتماعية حول أدوات الذكاء الاصطناعى الجديدة هذه لا تزال تتطور بسرعة. هل يجب أن يستخدمها الطلاب لكتابة مقالات؟ هل سيحلون محل المعالج الخاص بك؟ وهل هل يمكنهم التغلب على الحكومة؟

يتم طرح هذا السؤال الأخير في كل من الولايات المتحدة والمملكة المتحدة. بموجب إدارة ترامب الجديدة ، تقوم فرقة عمل إدارة الكفاءة الحكومية (DOGE) التابعة لإيلون موسك بإلغاء العمال الفيدراليين وطرح فريق chatbot ، GSAI ، إلى تلك التي تبقى. في هذه الأثناء ، وصف رئيس وزراء المملكة المتحدة ، كير ستارمر ، الذكاء الاصطناعى بأنه “فرصة ذهبية” يمكن أن تساعد في إعادة تشكيل الدولة.

بالتأكيد ، هناك عمل حكومي يمكن أن يستفيد من الأتمتة ، ولكن هل هي الأداة المناسبة للوظيفة؟ جزء من المشكلة هو أننا ما زلنا لا نستطيع الاتفاق على ما هم عليه بالفعل. تم عرض هذا على نحو مناسب هذا الأسبوع ، متى عالم جديد قوانين حرية المعلومات المستخدمة (FOI) للحصول على تفاعلات ChatGPT لبيتر كايل ، وزير الخارجية في المملكة المتحدة للعلوم والابتكار والتكنولوجيا. مندهو للسياسيين وخبراء خصوصية البيانات والصحفيين – ليس أقلنا منا – أن هذا الطلب قد تم منحه ، بالنظر إلى طلبات مماثلة لتاريخ البحث في Google للوزير ، على سبيل المثال ، سيتم رفضه عمومًا.

تشير أن السجلات التي تم إصدارها تشير إلى أن حكومة المملكة المتحدة ترى استخدام chatgpt على أنها أقرب إلى محادثة وزارية مع موظفي الخدمة المدنية عبر البريد الإلكتروني أو WhatsApp ، وكلاهما يخضع لقوانين FOI. لا تشير تفاعلات Kyle مع Chatgpt إلى أي اعتماد قوي على الذكاء الاصطناعي لتشكيل سياسة خطيرة – كان أحد أسئلته حول البودكاست الذي يجب أن يظهر عليه. ومع ذلك ، فإن حقيقة أن طلب حرية المعلومات قد تم منحه يشير إلى أن البعض في الحكومة يعتقد أن الذكاء الاصطناعى يمكن التحدث معه مثل الإنسان ، وهو أمر مثير للقلق.

مثل عالم جديد وقد ذكرت على نطاق واسع ، أن LLMs الحالية ليست ذكية بأي معنى ذي معنى ، كما أنها عرضة لتخليص عدم الدقة المقنعة كما هي لتقديم المشورة المفيدة. والأكثر من ذلك ، أن إجاباتهم ستعكس أيضًا التحيزات المتأصلة في المعلومات التي تناولوها.

في الواقع ، فإن العديد من علماء الذكاء الاصطناعي يتزايد الرأي القائل بأن LLMs ليست طريقًا إلى الهدف النبيل المتمثل في الذكاء العام الاصطناعي (AGI) ، القادر على مطابقة أو تجاوز أي شيء يمكن للإنسان فعله – آلة يمكن أن تفكر ، كما كان من الممكن أن يضعها Turing. على سبيل المثال ، في دراسة استقصائية حديثة للباحثين من الذكاء الاصطناعي ، قال حوالي 76 في المائة من المجيبين إنه “من غير المرجح” أو “من غير المرجح للغاية” أن تنجح الأساليب الحالية في تحقيق AGI.

بدلاً من ذلك ، ربما نحتاج إلى التفكير في هذه AIS بطريقة جديدة. الكتابة في المجلة علوم هذا الأسبوع ، يقول فريق من باحثو الذكاء الاصطناعى إنهم “لا ينبغي أن ينظروا إليه في المقام الأول كوكلاء أذكياء ، ولكن كنوع جديد من التكنولوجيا الثقافية والاجتماعية ، مما يسمح للبشر بالاستفادة من المعلومات التي تراكمتها البشر الآخرين”. يقارن الباحثون LLMs بـ “التقنيات السابقة مثل الكتابة والطباعة والأسواق والبيروقراطية والديمقراطيات التمثيلية” التي حولت الطريقة التي نصل بها إلى المعلومات ومعالجتها.

مؤطرًا بهذه الطريقة ، تصبح الإجابات على العديد من الأسئلة أكثر وضوحًا. هل يمكن للحكومات استخدام LLMS لزيادة الكفاءة؟ من المؤكد تقريبًا ، ولكن فقط عند استخدامه من قبل الأشخاص الذين يفهمون نقاط قوتهم وقيودهم. هل يجب أن تخضع التفاعلات مع chatbots لقوانين حرية المعلومات؟ ربما ، ولكن يجب أن تنطبق نقاط الانتقالات الحالية المصممة لمنح الوزراء “مساحة آمنة” للتداول الداخلي. ويمكن ، كما طلب تورينج ، آلات تعتقد؟ رقم ليس بعد.

الموضوعات:

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى