شركة ذكاء اصطناعي تجمع ٢ مليار دولار في جولتها التمويلية ومحد عارف وش يشتغلون عليه!

التاريخ : 2025-10-07

مدة القراءة : 3 دقائق

تخيل: امرأة ناجحة، لديها رؤية واضحة، تجمع فريقًا من أفضل العقول في العالم… ويحصلون على واحدة من أكبر جولات التمويل في وادي السيليكون قبل أن يظهر أي منتج حقيقي.. هذه ليست خيالاتها قبل النوم، بل واقع ميرا موراتي وشركتها.

القصة

ميرا كانت أحد أبرز قياديي OpenAI، عملت على مشاريع كبيرة مثل ChatGPT، لكنها شعرت بأنها بحاجة إلى حرية أكبر لرؤية أفكارها تتحقق، وفي فبراير ٢٠٢٥م غادرت OpenAI لتبدأ مشروعها الخاص، وبمجرد إعلانها الرحيل تبعها وفد من أفضل مطوري ومهندسي الذكاء الاصطناعي في العالم، بعضهم من زملائها السابقين، وهكذا أسست فريق خارق من أفضل المواهب في مجال نادر والطلب عليه عالٍ حاليًا، والمستثمرين ما صدقوا على الله خبر وضخوا مليارين دولار في جولة تأسيسية ضخمة (على عماها) قبل أي منتج، لأنهم اعتقدوا أن ميرا وفريقها (أدرى بالبير وغطاه).

**التوقعات؟ **

التوقعات كانت مرتفعة للغاية، والأنظار كلها اتجهت إلى ما ستقدمه ميرا وفريقها من “عباقرة الذكاء الاصطناعي”. البعض ظن أننا سنشهد شيئًا ثوريًا يُقربنا من الذكاء الاصطناعي العام (AGI) أو حتى “الذكاء الفائق”. لكن المفاجأة كانت مختلفة بعض الشيء.

وضع الشركة والمؤمنين بها

  • الجولة الاستثمارية: ٢ مليار دولار، جعلت الشركة تُقيّم بـ ١٢ مليار دولار.
  • المستثمرون الرئيسيون: Andreessen Horowitz، Nvidia، AMD، Cisco، ServiceNow، وJane Street.

إطلاق المنتج الأول: Tinker

بعد عدة أشهر من العمل خلف الكواليس، أطلقت الشركة أول منتج لها باسم Tinker. Tinker هو أداة عملية تساعد المطورين والباحثين على ضبط النماذج اللغوية الكبيرة (LLMs) بسرعة وكفاءة.

يعتمد على تقنية تسمى LoRA لتقليل الوقت والتكلفة مقارنة بمحاولة إعادة تدريب النموذج بالكامل.

المنتج مفيد، لكنه ليس مذهلًا أو ثوريًا بالنسبة للناس المتحمسين لتقنيات الذكاء الاصطناعي، بعض المحللين اعتبروا أن الشركة بدأت بخطوة حذرة ومُحسوبة، وأن الإبهار الحقيقي سيأتي لاحقًا مع منتجاتها الثانية أو الثالثة "الإفراط بتعاطي الأمل". 

لغير التقنيين: ما هي LoRA؟

تقوم Tinker في جوهرها على تقنية تُعرف باسم LoRA – Low-Rank Adaptation، طريقة ذكية لتخصيص النماذج الكبيرة بسرعة وبتكلفة منخفضة، دون إعادة تدريبها بالكامل. تضيف طبقات صغيرة قابلة للتدريب بينما تبقى الطبقات الأصلية كما هي، مما يقلل حجم العمل والذاكرة المطلوبة بشكل كبير مقارنة بالطرق التقليدية. تم تقديم هذه التقنية لأول مرة في بحث علمي شهير عام ٢٠٢٢م بعنوان "LoRA: Low-Rank Adaptation of Large Language Models"، والذي أوضح أن هذه الطريقة يمكن أن تقلل عدد المعاملات المطلوب تدريبها بمقدار ١٠ الآف مرة، وتخفض استهلاك الذاكرة بمقدار ثلاثة أضعاف مقارنةً بطرق الضبط الكاملة.

**ردود الفعل؟ **

البعض يرى أن Tinker خطوة ذكية من الناحية الإستراتيجية: فهي تمكّن الباحثين من استخدام LoRA بسهولة، عبر بنية تحتية قوية وآمنة من TML، ما يجعلها خدمة عملية ومطلوبة فعلًا في أوساط المطورين. لكن آخرين يعتقدون أن المنتج يفتقر إلى “التميّز الإستراتيجي”، إذ يمكن لشركات أخرى أن تقدم خدمات مماثلة بسهولة. بمعنى آخر: “وين الابتكار بالموضوع؟”

الصورة الكبرى:

القصة تترك أكثر من سؤال: هل كانت الثقة بالميرا وفريقها قبل أي منتج مبررة؟ أم أن المستثمرين يتعطشون لأي مشروع ذكاء اصطناعي؟ وهل المنتج القادم سيكون فعلاً الثورة المنتظرة، أم مجرد الخطوة الأولى في رحلة طويلة نحو شيء أكبر؟

اشترك معنا:

اقرأ المزيد من القصص والأخبار المماثلة يوميًا على بريدك.

شارك القصة عبر :

انسخ الرابط