عندما تفرض المنصات رقابة على نماذج الذكاء الاصطناعي بأكملها ، فإن الأمر لا يتعلق فقط ب "السياسة". يتعلق الأمر بالسلطة. في الأشهر الثلاثة الماضية وحدها: • انتزعت Anthropic وصول OpenAI إلى كلود ، مشيرة إلى سوء الاستخدام وسط تكثيف GPT-5 ، تاركة منافسا رئيسيا في الذكاء الاصطناعي عالقا في منتصف التطوير. • تقوم OpenAI بغروب الطرز بهدوء مثل o3 و o4-mini و GPT-4.5 على ChatGPT ، مما يؤدي إلى التخلص التدريجي منها دون سابق إنذار وتعطيل سير العمل ، وذهب الرفاق الذين كان من الممكن الاعتماد عليهم بين عشية وضحاها • تطبيق الرقابة على الذكاء الاصطناعي أصبح عالميا: تم حظر DeepSeek ، وهو تطبيق صيني لأنظمة الذكاء الاصطناعي ، من الأجهزة الحكومية الأمريكية والأوروبية بسبب الرقابة على الموضوعات الحساسة سياسيا بما في ذلك ميدان تيانانمين وتايوان الدرس واضح: التحكم في الحوسبة = التحكم في الكلام. هذا هو السبب في أننا نبني. نحن نبني استقلالية المطورين، وهي أدوات لا تختفي عندما يغير شخص ما بنود الخدمة. نحن نبني بنية تحتية للمصداقية ، حيث تأتي الثقة من الأنظمة المفتوحة ، وليس من مشرفي المنصة. نحن نبني طبقة أساسية حيث لا تحتاج إلى إذن للتفكير أو التحدث أو البرمجة. نحن شبكة مؤسسة قطر. ابدأ حيث يتم تصميم الحرية.
‏‎14.67‏K