لقد وصلت ظاهرة “شات جي بي تي ChatGPT” إلى مكان العمل في الولايات المتحدة، مما أثار ردود فعل متباينة بين العاملين وأرباب العمل على حد سواء. ووفقًا لاستطلاع أجرته وكالة رويترز/إبسوس، استخدم عدد كبير من العاملين في الولايات المتحدة “شات جي بي تي” للمساعدة في المهام الروتينية. هذه الاتجاه أثار اهتمامًا وقلقًا في آن واحد، حيث اتخذت شركات كبرى مثل مايكروسوفت وجوجل إجراءات لتنظيم استخدامه.
في إطار التفاوض العالمي حول استخدام “شات جي بي تي” بشكل فعال، نشأت مخاوف بشأن تسرب الملكية الفكرية والمعلومات الاستراتيجية. في حين يساعد البرنامج المستخدمين في توليد ردود محادثات والتعامل مع مجموعة متنوعة من الاستفسارات، تشعر شركات الأمان بالقلق من التداعيات غير المقصودة.
تظهر الحسابات القصصية العاملين يستخدمون “شات جي بي تي” لمهام مثل صياغة الرسائل البريدية وتلخيص الوثائق وإجراء أبحاث أولية.
من المشاركين في استطلاع الرأي عبر الإنترنت حول الذكاء الاصطناعي الذي أُجري بين 11 و 17 يوليو، أقر 28% منهم بأنهم يستخدمون بانتظام “شات جي بي تي” في روتين عملهم. ومع ذلك، أكدت فقط 22% منهم أن أرباب عملهم سمحوا صراحة باستخدام مثل هذه الأدوات الخارجية.
شمل استطلاع رويترز/إبسوس 2625 بالغًا عبر الولايات المتحدة، مع فاصل ذو مصداقية يبلغ حوالي 2 نقطة في المئة.
أبلغ حوالي 10% من المشاركين أن أرباب عملهم منعوا صراحة استخدام أدوات الذكاء الاصطناعي الخارجية، في حين كان حوالي 25% غير متأكدين مما إذا كانت شركاتهم تسمح بمثل هذه التكنولوجيا.
حققت “شات جي بي تي” شهرة كبيرة بأنها أسرع تطبيق نموًا في التاريخ منذ إطلاقه في نوفمبر. وقد أثارت إثارة واهتمامًا، وجعلت شركة التطوير OpenAI تواجه تحديات من الجهات التنظيمية، خاصة في أوروبا، حيث أثار جمع البيانات الضخمة للشركة انتباه مراقبي الخصوصية.
تنشأ المخاوف من معلومات ملكية على الأقل من أن المراجعين البشريين من شركات أخرى قد يستعرضون المحادثات التي تم إنشاؤها. وعلاوة على ذلك، أظهر البحث أن نظم الذكاء الاصطناعي المماثلة يمكن أن تكرر البيانات التدريبية التي استوعبتها، مما يشكل مخاطر للمعلومات الملكية.
“لا يفهم الناس كيف يتم استخدام البيانات عند استخدام خدمات الذكاء الاصطناعي التوليدية”، لاحظ بن كينج، نائب رئيس الثقة لدى شركة الأمان الشركية Okta.
شدد كينج على أهمية ذلك للأعمال، مشيرًا إلى أن المستخدمين غالبًا ما يفتقرون إلى اتفاقات تعاقدية مع العديد من خدمات الذكاء الاصطناعي بسبب طبيعتها المجانية. وهذا بدوره يشكل تحديات في تقييم المخاطر من خلال عمليات اعتيادية.
رفضت OpenAI التعليق على تأثيرات استخدام الموظفين الأفراد لـ “شات جي بي تي” ، ولكنها أكدت لشركاءها الشركات في مقال مدونة مؤخرًا أن بياناتهم لن تستخدم لتدريب الروبوت الدردشة دون إذن صريح.
بالمثل، يجمع نظام “برد Bard” نظام الذكاء الاصطناعي الخاص بشركة جوجل، بيانات المستخدم للمعالجة الذكية، ويسمح جوجل للمستخدمين بإدارة بياناتهم وطلب إزالة المحتوى. وفي الوقت نفسه، لم ترد مايكروسوفت على الفور على الاستفسارات.
على الرغم من القلق الموجود، فقد استخدم العاملون، حتى في المؤسسات التي تمنع بشكل صريح، شات جي بي تي للمهام التي تبدو بريئة. قد أكد أحد الموظفين في Tinder استخدام “شات جي بي تي” لكتابة الرسائل البريدية والبحث وإنشاء دعوات التقاويم، على الرغم من مخالفة قواعد الشركة.
مع ذلك، أكد موظفو Tinder أنهم يستخدمونه بشكل بريء. من جهة أخرى، حظرت سامسونج للإلكترونيات استخدام شات جي بي تي بعد أن اكتشفت أن أحد الموظفين قد قام بتحميل رمز حساس إلى المنصة.
قالت سامسونج في بيان في 3 أغسطس: “نحن نستعرض التدابير لإنشاء بيئة آمنة لاستخدام الذكاء الاصطناعي التوليدية التي تعزز من إنتاجية وكفاءة الموظفين”.
ذكرت جوجل في يونيو أن Alphabet حذرت الموظفين من كيفية استخدام الروبوتات الدردشة بما في ذلك نظام الذكاء الاصطناعي الخاص بها “برد Bard” ، في نفس الوقت الذي تسوق فيه البرنامج عالميا.
وأوضحت جوجل أن “Bard” قادرة على تقديم اقتراحات رموز غير مرغوب فيها، ولكنها تساعد المبرمجين أيضًا. كما أنها تهدف إلى أن تكون شفافة بشأن قيود تقنيتها.
قال ايضاً بول لويس، رئيس مكتب أمان المعلومات في شركة أمان السيبراني Nominet، “المنع الشامل غير مبرر بعد، لكن يجب أن نتعامل بحذر”.