تقوم شركة WitnessAI ببناء حواجز حماية لنماذج الذكاء الاصطناعي التوليدية
الذكاء الاصطناعي التوليدي يختلق الأشياء. يمكن أن تكون متحيزة. في بعض الأحيان، فإنه يبصق النص السامة. فهل يمكن أن تكون “آمنة”؟
ويعتقد ريك كاتشيا، الرئيس التنفيذي لشركة WitnessAI، أن هذا ممكن.
قال كاتشيا، نائب الرئيس الأول السابق للتسويق في Palo Alto Networks، لـ TechCrunch في مقابلة: “يعد تأمين نماذج الذكاء الاصطناعي مشكلة حقيقية، وهي مشكلة لامعة بشكل خاص بالنسبة للباحثين في الذكاء الاصطناعي، ولكنها تختلف عن تأمين الاستخدام”. “أنا أفكر في الأمر مثل السيارة الرياضية: امتلاك محرك أكثر قوة – أي الطراز – لا يشتري لك أي شيء إلا إذا كان لديك مكابح وتوجيه جيدين أيضًا. إن أدوات التحكم لا تقل أهمية عن المحرك للقيادة السريعة.
من المؤكد أن هناك طلبًا على مثل هذه الضوابط بين الشركات، التي – رغم تفاؤلها الحذر بشأن إمكانات تعزيز الإنتاجية للذكاء الاصطناعي التوليدي – لديها مخاوف بشأن قيود التكنولوجيا.
وجد استطلاع أجرته شركة IBM أن 51% من الرؤساء التنفيذيين يقومون بالتوظيف في أدوار إنتاجية مرتبطة بالذكاء الاصطناعي والتي لم تكن موجودة حتى هذا العام. ومع ذلك، فإن 9% فقط من الشركات تقول إنها مستعدة لإدارة التهديدات – بما في ذلك التهديدات المتعلقة بالخصوصية والملكية الفكرية – الناشئة عن استخدامها للذكاء الاصطناعي التوليدي، وفقًا لاستطلاع أجرته شركة Riskonnect.
منصة WitnessAI التي تعترض النشاط بين الموظفين ونماذج الذكاء الاصطناعي التوليدية المخصصة التي يستخدمها صاحب العمل – ليست نماذج محصورة خلف واجهة برمجة التطبيقات مثل OpenAI’s GPT-4، ولكن أكثر على غرار Meta’s Llama 3 – وتطبق سياسات وضمانات لتخفيف المخاطر.
“أحد وعود الذكاء الاصطناعي للمؤسسات هو أنه يفتح بيانات المؤسسة ويجعلها ديمقراطية للموظفين حتى يتمكنوا من أداء وظائفهم بشكل أفضل. لكن فتح كل تلك البيانات الحساسة جيد جدا –– أو تسريبه أو سرقته – يمثل مشكلة.”
تبيع WitnessAI إمكانية الوصول إلى عدة وحدات، يركز كل منها على معالجة شكل مختلف من مخاطر الذكاء الاصطناعي التوليدية. أحدهما يتيح للمؤسسات تنفيذ قواعد لمنع الموظفين من فرق معينة من استخدام أدوات توليدية مدعومة بالذكاء الاصطناعي بطرق ليس من المفترض أن يفعلوها (على سبيل المثال، مثل السؤال عن تقارير أرباح ما قبل الإصدار أو لصق قواعد التعليمات البرمجية الداخلية). وهناك طريقة أخرى تعمل على تنقيح معلومات الملكية والحساسة من المطالبات المرسلة إلى النماذج، وتنفيذ تقنيات لحماية النماذج من الهجمات التي قد تجبرها على الخروج عن النص.
وقال كاتشيا: “نعتقد أن أفضل طريقة لمساعدة الشركات هي تحديد المشكلة بطريقة منطقية، على سبيل المثال، التبني الآمن للذكاء الاصطناعي، ثم بيع حل يعالج المشكلة”. “يريد CISO حماية الأعمال، وتساعدهم WitnessAI على القيام بذلك من خلال ضمان حماية البيانات، ومنع الحقن الفوري وإنفاذ السياسات القائمة على الهوية. يريد كبير مسؤولي الخصوصية التأكد من اتباع اللوائح الحالية والقادمة، ونمنحهم الرؤية وطريقة للإبلاغ عن النشاط والمخاطر.
ولكن هناك شيء واحد صعب في WitnessAI من منظور الخصوصية: حيث تمر جميع البيانات عبر نظامها الأساسي قبل الوصول إلى النموذج. تتحلى الشركة بالشفافية بشأن هذا الأمر، حتى أنها تقدم أدوات لمراقبة النماذج التي يصل إليها الموظفون، والأسئلة التي يطرحونها على النماذج والإجابات التي يحصلون عليها. ولكنها يمكن أن تخلق مخاطر الخصوصية الخاصة بها.
ردًا على أسئلة حول سياسة خصوصية WitnessAI، قال Caccia إن المنصة “معزولة” ومشفرة لمنع أسرار العملاء من الانتشار إلى العلن.
“لقد قمنا ببناء منصة ذات زمن استجابة بالمللي ثانية مع فصل تنظيمي مدمج – تصميم فريد ومعزول لحماية نشاط الذكاء الاصطناعي للمؤسسة بطريقة تختلف جوهريًا عن خدمات البرامج كخدمة المعتادة متعددة المستأجرين.” هو قال. “نقوم بإنشاء مثيل منفصل لمنصتنا لكل عميل، مشفرًا بمفاتيحه. فبيانات نشاط الذكاء الاصطناعي الخاصة بهم معزولة عنهم، ولا يمكننا رؤيتها.
ربما هذا سوف يهدئ مخاوف العملاء. أما بالنسبة للعمال الذين يشعرون بالقلق بشأن إمكانات المراقبة التي توفرها منصة WitnessAI، فالأمر أصعب.
تظهر الدراسات الاستقصائية أن الأشخاص لا يستمتعون عمومًا بمراقبة نشاطهم في مكان العمل، بغض النظر عن السبب، ويعتقدون أن ذلك يؤثر سلبًا على معنويات الشركة. قال ما يقرب من ثلث المشاركين في استطلاع أجرته مجلة فوربس إنهم قد يفكرون في ترك وظائفهم إذا قام صاحب العمل بمراقبة نشاطهم واتصالاتهم عبر الإنترنت.
لكن كاتشيا تؤكد أن الاهتمام بمنصة WitnessAI كان ولا يزال قويًا، مع وجود 25 مستخدمًا مبكرًا من الشركات في مرحلة إثبات المفهوم. (لن يصبح متاحًا بشكل عام حتى الربع الثالث.) وفي تصويت بالثقة من جانب شركات رأس المال الاستثماري، جمعت WitnessAI 27.5 مليون دولار من شركة Ballistic Ventures (التي احتضنت WitnessAI) وGV، ذراع المشاريع لشركة Google.
تتمثل الخطة في تخصيص شريحة التمويل لتنمية فريق WitnessAI المكون من 18 شخصًا إلى 40 شخصًا بحلول نهاية العام. من المؤكد أن النمو سيكون مفتاحًا للتغلب على منافسي WitnessAI في الفضاء الناشئ للامتثال النموذجي وحلول الحوكمة، ليس فقط من عمالقة التكنولوجيا مثل AWS وGoogle وSalesforce ولكن أيضًا من الشركات الناشئة مثل CalypsoAI.
وقال كاتشيا: “لقد وضعنا خطتنا للوصول إلى عام 2026 حتى لو لم تكن لدينا مبيعات على الإطلاق، ولكن لدينا بالفعل ما يقرب من 20 ضعفًا من خط الأنابيب اللازم لتحقيق أهداف مبيعاتنا هذا العام”. “هذه هي جولة التمويل الأولية والإطلاق العام لدينا، ولكن تمكين الذكاء الاصطناعي واستخدامه بشكل آمن يعد مجالًا جديدًا، ويتم تطوير جميع ميزاتنا مع هذا السوق الجديد.”
اكتشاف المزيد من موقع خبرة التقني
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.