تخرج شركة FlexAI الفرنسية الناشئة من التخفي بمبلغ 30 مليون دولار لتسهيل الوصول إلى حوسبة الذكاء الاصطناعي
شركة ناشئة فرنسية قامت بجمع استثمار أولي ضخم من أجل “إعادة هندسة البنية التحتية للحوسبة” للمطورين الراغبين في إنشاء تطبيقات الذكاء الاصطناعي وتدريبها بكفاءة أكبر.
تعمل FlexAI، كما تُسمى الشركة، بشكل خفي منذ أكتوبر 2023، لكن الشركة التي يقع مقرها في باريس ستنطلق رسميًا يوم الأربعاء بتمويل قدره 28.5 مليون يورو (30 مليون دولار)، بينما تستعرض أول منتج لها: خدمة سحابية عند الطلب للتدريب على الذكاء الاصطناعي.
يعد هذا تغييرًا كبيرًا في جولة البذور، وهو ما يعني عادةً نسب مؤسس حقيقي كبير – وهذا هو الحال هنا. كان المؤسس المشارك والرئيس التنفيذي لشركة FlexAI، بريجيش تريباثي، سابقًا مهندس تصميم أول في شركة GPU العملاقة والآن AI darling Nvidia، قبل أن يهبط في العديد من الأدوار الهندسية والمعمارية العليا في Apple؛ تسلا (تعمل مباشرة تحت قيادة إيلون موسك)؛ Zoox (قبل أن تستحوذ أمازون على شركة القيادة الذاتية الناشئة)؛ ومؤخرًا، تولى تريباثي منصب نائب الرئيس لقسم الذكاء الاصطناعي ومنصة الحوسبة الفائقة التابعة لشركة Intel، AXG.
يتمتع دالي كيلاني، المؤسس المشارك لـ FlexAI والرئيس التنفيذي للتكنولوجيا، بسيرة ذاتية مثيرة للإعجاب أيضًا، حيث يعمل في أدوار فنية مختلفة في شركات بما في ذلك Nvidia وZynga، بينما يشغل مؤخرًا منصب CTO في شركة Lifen الفرنسية الناشئة، التي تعمل على تطوير البنية التحتية الرقمية لصناعة الرعاية الصحية.
قادت الجولة التأسيسية شركة Alpha Intelligence Capital (AIC)، وElaia Partners، وHeartcore Capital، بمشاركة Frst Capital، وMotier Ventures، وPartech، والرئيس التنفيذي لشركة InstaDeep، كريم بيجوير.
لغز الحساب
لفهم ما يحاول تريباثي وكيلاني باستخدام FlexAI، من المفيد أولاً فهم ما يواجهه المطورون وممارسو الذكاء الاصطناعي فيما يتعلق بالوصول إلى “الحوسبة”؛ يشير هذا إلى قوة المعالجة والبنية التحتية والموارد اللازمة لتنفيذ المهام الحسابية مثل معالجة البيانات وتشغيل الخوارزميات وتنفيذ نماذج التعلم الآلي.
“إن استخدام أي بنية تحتية في مجال الذكاء الاصطناعي أمر معقد؛ قال تريباثي لـ TechCrunch: “إنه ليس لضعاف القلوب، وليس لعديمي الخبرة”. “يتطلب منك معرفة الكثير عن كيفية إنشاء البنية التحتية قبل أن تتمكن من استخدامها.”
على النقيض من ذلك، فإن النظام البيئي السحابي العام الذي تطور خلال العقدين الماضيين يعد بمثابة مثال جيد لكيفية ظهور الصناعة من حاجة المطورين إلى إنشاء تطبيقات دون القلق كثيرًا بشأن الواجهة الخلفية.
“إذا كنت مطورًا صغيرًا وترغب في كتابة تطبيق، فلن تحتاج إلى معرفة مكان تشغيله، أو ما هي النهاية الخلفية – تحتاج فقط إلى تشغيل مثيل EC2 (Amazon Elastic Compute cloud) ويمكنك قال تريباثي: “لقد انتهينا”. “لا يمكنك فعل ذلك باستخدام حوسبة الذكاء الاصطناعي اليوم.”
في مجال الذكاء الاصطناعي، يجب على المطورين معرفة عدد وحدات معالجة الرسومات (وحدات معالجة الرسومات) التي يحتاجون إليها للاتصال البيني عبر نوع الشبكة، التي تتم إدارتها من خلال نظام بيئي برمجي يكونون مسؤولين بالكامل عن إعداده. إذا فشلت وحدة معالجة الرسومات أو الشبكة، أو إذا حدث أي شيء في هذه السلسلة بشكل خاطئ، يقع على عاتق المطور مسؤولية حل المشكلة.
قال تريباثي: “نريد أن ننقل البنية التحتية لحوسبة الذكاء الاصطناعي إلى نفس المستوى من البساطة الذي وصلت إليه السحابة للأغراض العامة – بعد 20 عامًا، نعم، ولكن لا يوجد سبب يمنع حوسبة الذكاء الاصطناعي من تحقيق نفس الفوائد”. “نريد أن نصل إلى نقطة لا يتطلب فيها تشغيل أعباء عمل الذكاء الاصطناعي أن تصبح خبراء في مراكز البيانات.”
مع التكرار الحالي لمنتجها الذي يمر بخطواته مع عدد قليل من عملاء النسخة التجريبية، ستطلق FlexAI أول منتج تجاري لها في وقت لاحق من هذا العام. إنها في الأساس خدمة سحابية تربط المطورين بـ “الحوسبة الافتراضية غير المتجانسة”، مما يعني أنه يمكنهم تشغيل أعباء العمل الخاصة بهم ونشر نماذج الذكاء الاصطناعي عبر بنيات متعددة، والدفع على أساس الاستخدام بدلاً من استئجار وحدات معالجة الرسومات على أساس الدولار في الساعة.
تعد وحدات معالجة الرسومات بمثابة أدوات حيوية في تطوير الذكاء الاصطناعي، حيث تعمل على تدريب وتشغيل نماذج اللغات الكبيرة (LLMs)، على سبيل المثال. تعد Nvidia أحد اللاعبين البارزين في مجال GPU، وأحد المستفيدين الرئيسيين من ثورة الذكاء الاصطناعي التي أشعلتها OpenAI وChatGPT. في الـ 12 شهرًا منذ أن أطلقت OpenAI واجهة برمجة التطبيقات لـ ChatGPT في مارس 2023، مما سمح للمطورين بدمج وظائف ChatGPT في تطبيقاتهم الخاصة، تضخمت أسهم Nvidia من حوالي 500 مليار دولار إلى أكثر من 2 تريليون دولار.
تتدفق شهادات LLM من صناعة التكنولوجيا، مع ارتفاع الطلب على وحدات معالجة الرسومات بشكل كبير جنبًا إلى جنب. لكن تشغيل وحدات معالجة الرسومات باهظ الثمن، كما أن استئجارها من مزود سحابي لوظائف أصغر أو حالات استخدام مخصصة لا يكون دائمًا منطقيًا ويمكن أن يكون باهظ التكلفة؛ وهذا هو السبب وراء اهتمام AWS بتأجيرات محدودة المدة لمشاريع الذكاء الاصطناعي الأصغر. لكن التأجير لا يزال إيجارًا، ولهذا السبب تريد FlexAI تجريد التعقيدات الأساسية والسماح للعملاء بالوصول إلى حوسبة الذكاء الاصطناعي على أساس الحاجة.
“السحابة المتعددة للذكاء الاصطناعي”
نقطة البداية لـ FlexAI هي أن معظم المطورين لا يفعلون ذلك حقًا يهتمون بالجزء الأكبر من وحدات معالجة الرسومات أو الرقائق التي يستخدمونها، سواء كانت Nvidia أو AMD أو Intel أو Graphcore أو Cerebras. همهم الرئيسي هو القدرة على تطوير الذكاء الاصطناعي الخاص بهم وبناء التطبيقات ضمن قيود ميزانيتهم.
هذا هو المكان الذي يأتي فيه مفهوم FlexAI الخاص بـ “حوسبة الذكاء الاصطناعي العالمية”، حيث تأخذ FlexAI متطلبات المستخدم وتخصصها لأي بنية منطقية لهذه الوظيفة المحددة، مع الاهتمام بجميع التحويلات الضرورية عبر الأنظمة الأساسية المختلفة، سواء كان ذلك Gaudi من Intel البنية التحتية، Rocm من AMD أو CUDA من Nvidia.
وقال تريباثي: “ما يعنيه هذا هو أن المطور يركز فقط على بناء النماذج وتدريبها واستخدامها”. “نحن نعتني بكل شيء تحته. نحن ندير كل حالات الفشل والاسترداد والموثوقية، وأنت تدفع مقابل ما تستخدمه.
من نواحٍ عديدة، تعمل شركة FlexAI على تسريع ما يحدث بالفعل في السحابة للذكاء الاصطناعي، مما يعني أكثر من مجرد تكرار نموذج الدفع لكل استخدام: إنه يعني القدرة على الانتقال إلى “السحابة المتعددة” من خلال الاعتماد على المزايا المختلفة. من البنى التحتية المختلفة لوحدة معالجة الرسومات والرقائق.
على سبيل المثال، ستقوم FlexAI بتوجيه عبء العمل المحدد للعميل اعتمادًا على أولوياته. إذا كانت لدى الشركة ميزانية محدودة للتدريب وضبط نماذج الذكاء الاصطناعي الخاصة بها، فيمكنها ضبط ذلك ضمن منصة FlexAI للحصول على أقصى قدر من الفائدة الحاسوبية مقابل أموالها. قد يعني هذا اللجوء إلى شركة Intel للحصول على حوسبة أرخص (ولكنها أبطأ)، ولكن إذا كان لدى المطور عملية تشغيل صغيرة تتطلب أسرع إخراج ممكن، فيمكن توجيهها عبر Nvidia بدلاً من ذلك.
تحت الغطاء، تعد FlexAI في الأساس “مجمعًا للطلب”، حيث تقوم بتأجير الأجهزة نفسها من خلال الوسائل التقليدية، وباستخدام “اتصالاتها القوية” مع الأشخاص في Intel وAMD، تؤمن أسعارًا تفضيلية تنشرها عبر قاعدة عملائها. هذا لا يعني بالضرورة التخلي عن شركة Nvidia الرئيسية، لكنه ربما يعني ذلك إلى حد كبير – مع قتال Intel و AMD من أجل قصاصات GPU المتبقية في أعقاب Nvidia – هناك حافز كبير لهم للعب الكرة مع مجمعات مثل مثل FlexAI.
“إذا كان بإمكاني أن أجعل الأمر يعمل لصالح العملاء وجلب عشرات إلى مئات العملاء إلى البنية التحتية الخاصة بهم، فسيفعلون ذلك [Intel and AMD] قال تريباثي: “سوف أكون سعيدًا جدًا”.
وهذا يتناقض مع مشغلات GPU السحابية المماثلة في الفضاء مثل CoreWeave و Lambda Labs الممولة جيدًا، والتي تركز بشكل مباشر على أجهزة Nvidia.
وأشار تريباثي: “أريد أن أصل بحوسبة الذكاء الاصطناعي إلى النقطة التي وصلت إليها الحوسبة السحابية للأغراض العامة الحالية”. “لا يمكنك إنشاء بيئة سحابية متعددة باستخدام الذكاء الاصطناعي. يجب عليك تحديد أجهزة معينة، وعدد وحدات معالجة الرسومات، والبنية التحتية، والاتصال، ثم صيانتها بنفسك. واليوم، هذه هي الطريقة الوحيدة للحصول فعليًا على حوسبة الذكاء الاصطناعي.
وعندما سُئل تريباثي عن شركاء الإطلاق المحددين، قال إنه غير قادر على ذكر أسمائهم جميعًا بسبب عدم وجود “التزامات رسمية” من بعضهم.
وقال: “إن إنتل شريك قوي، فهي بالتأكيد توفر البنية التحتية، وAMD شريك يوفر البنية التحتية”. “ولكن هناك طبقة ثانية من الشراكات التي تحدث مع Nvidia واثنين من شركات السيليكون الأخرى التي لسنا مستعدين بعد لمشاركتها، ولكنها جميعها في مزيج ومذكرات تفاهم [memorandums of understanding] يتم التوقيع الآن.”
تأثير إيلون
إن Tripathi أكثر من مجهز للتعامل مع التحديات المقبلة، حيث عمل في بعض أكبر شركات التكنولوجيا في العالم.
“أنا أعرف ما يكفي عن وحدات معالجة الرسومات؛ قال تريباثي عن فترة عمله التي دامت سبع سنوات في شركة Nvidia، وانتهت في عام 2007 عندما قفز إلى شركة Apple عندما كانت تطلق أول هاتف iPhone: “لقد اعتدت بناء وحدات معالجة الرسوميات”. “في شركة Apple، أصبحت أركز على حل مشكلات العملاء الحقيقية. لقد كنت هناك عندما بدأت شركة Apple في بناء أول شركة نفط الجنوب الخاصة بها [system on chips] للهواتف.”
قضى تريباثي أيضًا عامين في شركة Tesla من عام 2016 إلى عام 2018 كقائد لهندسة الأجهزة، حيث انتهى به الأمر بالعمل مباشرة تحت قيادة Elon Musk خلال أشهره الستة الأخيرة بعد أن ترك شخصان فوقه الشركة فجأة.
وقال: “في تيسلا، الشيء الذي تعلمته وأأخذه في شركتي الناشئة هو أنه لا توجد قيود أخرى غير العلوم والفيزياء”. “إن الطريقة التي تتم بها الأمور اليوم ليست كما ينبغي أو يجب القيام بها. يجب أن تسعى وراء ما هو صحيح من المبادئ الأولى، وللقيام بذلك، قم بإزالة كل صندوق أسود.
شارك تريباثي في انتقال شركة تيسلا إلى تصنيع رقائقها الخاصة، وهي خطوة قامت منذ ذلك الحين بمحاكاتها من قبل جنرال موتورز وهيونداي، من بين شركات صناعة السيارات الأخرى.
“أحد الأشياء الأولى التي قمت بها في شركة تيسلا هو معرفة عدد وحدات التحكم الدقيقة الموجودة في السيارة، وللقيام بذلك، كان علينا حرفيًا فرز مجموعة من تلك الصناديق السوداء الكبيرة ذات الدروع المعدنية والأغلفة المحيطة بها، قال تريباثي: “اعثر على وحدات التحكم الدقيقة الصغيرة جدًا هناك”. “وانتهى بنا الأمر بوضع ذلك على الطاولة، ووضعناه جانبًا وقلنا: “إيلون، هناك 50 وحدة تحكم دقيقة في السيارة.” ونحن ندفع في بعض الأحيان هوامش ربح عليها 1000 مرة لأنها محمية بغلاف معدني كبير. وكان يقول: “دعونا نذهب لنصنع منتجاتنا الخاصة”. وقد فعلنا ذلك.
وحدات معالجة الرسومات كضمان
وبالنظر إلى المستقبل، فإن شركة FlexAI لديها تطلعات لبناء البنية التحتية الخاصة بها أيضًا، بما في ذلك مراكز البيانات. وقال تريباثي إن هذا سيتم تمويله من خلال تمويل الديون، بناءً على الاتجاه الأخير الذي شهد استخدام المنافسين في هذا المجال، بما في ذلك CoreWeave وLambda Labs، لشرائح Nvidia كضمان لتأمين القروض – بدلاً من التنازل عن المزيد من الأسهم.
وقال تريباثي: “يعرف المصرفيون الآن كيفية استخدام وحدات معالجة الرسومات كضمانات”. “لماذا التخلي عن الأسهم؟ وإلى أن نصبح مزودًا حقيقيًا للحوسبة، فإن قيمة شركتنا ليست كافية لتزويدنا بمئات الملايين من الدولارات اللازمة للاستثمار في بناء مراكز البيانات. إذا قمنا بالإنصاف فقط، فإننا نختفي عندما يذهب المال. ولكن إذا قمنا بالفعل باعتمادها على وحدات معالجة الرسومات كضمان، فيمكنهم أخذ وحدات معالجة الرسومات بعيدًا ووضعها في مركز بيانات آخر.
اكتشاف المزيد من موقع خبرة التقني
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.