بحث

ChatGPT Images 2.0 مع التفكير، Gemini Deep Research Max، NVIDIA × Adobe × WPP

ChatGPT Images 2.0 مع التفكير، Gemini Deep Research Max، NVIDIA × Adobe × WPP

في 21 أبريل 2026، تهيمن ثلاثة إعلانات كبرى على أخبار الذكاء الاصطناعي: تطلق OpenAI ‏ChatGPT Images 2.0 مع أول نموذج صور لديها قادر على الاستدلال، وتقدم Google DeepMind وكيلَي بحث مستقلين يعملان بـ Gemini 3.1 Pro، وتوطد NVIDIA شراكة ثلاثية مع Adobe وWPP حول وكلاء إبداعيين للتسويق المؤسسي. ويكمل Claude Code وCodex وGit 2.54 يوماً حافلاً بالتحديثات في الأدوات.


ChatGPT Images 2.0 و gpt-image-2

21 أبريل — تطلق OpenAI ‏ChatGPT Images 2.0، والمتاح فوراً لجميع مستخدمي ChatGPT وCodex. أما النموذج الأساسي، gpt-image-2، فهو متاح أيضاً عبر API.

يمثل هذا الإصدار الجديد قطيعة مع الجيل السابق: إذ تحسن بشكل كبير اتباع التعليمات التفصيلية (instruction following)، وأصبح وضع العناصر والربط الدقيق بينها أكثر موثوقية، وأعيدت صياغة معالجة النص الكثيف، كما أصبحت عدة صيغ (عمودي، أفقي، مربع) مدعومة أصلاً.

وضع التفكير (thinking) هو أبرز جديد. ChatGPT Images 2.0 هو أول نموذج صور من OpenAI مزود بقدرات استدلال. وفي وضع thinking، المتاح لمشتركي Plus وPro وBusiness (Enterprise قريباً)، يمكن للنموذج أن:

  • يبحث في الويب آنياً للحصول على معلومات محدثة
  • يولد عدة صور مختلفة من prompt واحد
  • يتحقق ذاتياً من مخرجاته ويصححها

وقد أوضحت فرق البحث في OpenAI حالات الاستخدام في thread: إخراج متعدد اللغات ونص دقيق، شرائح ورسوم معلوماتية احترافية، صيغ ودقات متعددة، واتباع تعليمات معقدة.

الميزةالتوفر
ChatGPT Images 2.0 (النسخة القياسية)جميع مستخدمي ChatGPT وCodex
وضع thinkingChatGPT Plus وPro وBusiness (Enterprise قريباً)
API gpt-image-2متاح الآن

الخلاصة التي تطرحها OpenAI مع هذا الإطلاق: النموذج “ينتقل من توليد الصور إلى التصميم الاستراتيجي، من أداة إلى نظام بصري.”

🔗 التعريف بـ ChatGPT Images 2.0 🔗 تغريدة @OpenAI


Google Deep Research و Deep Research Max

21 أبريل — تطلق Google DeepMind وكيلَي بحث مستقلين يعملان بـ Gemini 3.1 Pro: Deep Research وDeep Research Max.

تتنقل هذه الوكلاء بين الويب المفتوح والبيانات المخصصة — مثل المستندات الداخلية والمعلومات المالية المتخصصة — لإنتاج تقارير احترافية موثقة بالكامل.

Deep Research مُحسَّن للسرعة وانخفاض زمن الاستجابة، وهو مثالي للواجهات التي تحتاج إلى ردود سريعة. أما Deep Research Max فيستفيد من زمن حوسبة ممتد (extended test-time compute) للاستدلال بشكل تكراري، وصقل عمليات البحث، وإنتاج تقرير عالي الجودة — مصمم للمعالجة غير المتزامنة في الخلفية.

الميزةالتفاصيل
دعم MCPاتصال آمن بمصادر مملوكة أو تابعة لطرف ثالث
توليد بصري أصليأول وكيل يولد الرسوم البيانية والإنفوغرافيك (HTML أو Nano Banana 2)
تخطيط تعاونييمكن للمستخدم تنقيح خطة البحث قبل التنفيذ
تعدد الوسائطPDFs وCSVs والصور والصوت والفيديو مقبولة كمدخلات
التوفرAPI Gemini، أطراف ثالثة مدفوعة، معاينة عامة

يُعد التوليد البصري الأصلي لافتاً: إذ يمكن لـ Deep Research Max إنتاج الرسوم البيانية والإنفوغرافيك مباشرة داخل تقاريره، بصيغة HTML أو عبر Nano Banana 2، من دون أداة خارجية. وستستفيد الشركات الناشئة ومؤسسات Google Cloud من توفر سيُعلن عنه قريباً.

🔗 إعلان @GoogleDeepMind 🔗 مقال blog.google


NVIDIA × Adobe × WPP — وكلاء إبداعيون للتسويق المؤسسي

20 أبريل — توسع NVIDIA تعاوناتها الاستراتيجية مع Adobe وWPP لنشر وكلاء AI مستقلين داخل عمليات التسويق المؤسسية. ويترافق الإعلان مع عرض حي في Adobe Summit في 21 أبريل، بحضور Jensen Huang (CEO NVIDIA) وShantanu Narayen (CEO Adobe).

يُنسَّق الحل الجديد Adobe CX Enterprise Coworker بواسطة وكلاء AI يعتمدون على:

  • NVIDIA OpenShell: بيئة تنفيذ آمنة وقابلة للملاحظة والتدقيق لعمليات workflow الوكيلة
  • NVIDIA Agent Toolkit ونماذج Nemotron مفتوحة المصدر
  • Adobe Firefly Foundry المسرَّع ببنية NVIDIA AI التحتية

عملياً، يمكن لتاجر تجزئة عالمي الآن توليد ملايين التركيبات بين المنتج/الجمهور/القناة في دقائق بدلاً من أشهر. وتُستخدم التوائم الرقمية ثلاثية الأبعاد (Omniverse + OpenUSD) كمعرفات منتجات دائمة لأتمتة إنتاج المحتوى عالي الدقة على نطاق واسع.

🔗 مقال blogs.nvidia.com 🔗 تغريدة @NVIDIAAI


Claude Code v2.1.116

19–21 أبريل — يقدم Claude Code v2.1.116 سلسلة تحسينات مركزة على الأداء والموثوقية وتجربة الطرفية.

أبرز تحسين ملموس: الأمر /resume أسرع بما يصل إلى 67% في الجلسات الكبيرة (40 Mo+)، مع إدارة أفضل للمدخلات “dead-fork”. كما أصبح بدء MCP أسرع أيضاً مع عدة خوادم stdio مهيأة.

تجربة المستخدم:

  • يعرض مؤشر التفكير الآن التقدم سطورياً (“still thinking”, “thinking more”, “almost done thinking”)، ليحل محل سطر المؤشر المنفصل
  • يمكن لـ /config البحث بحسب قيمة الخيار (مثلاً: البحث عن “vim” يجد إعداد Editor mode)
  • يمكن فتح /doctor أثناء رد Claude، من دون انتظار نهاية الدور

الأمان: لم يعد sandbox auto-allow يتجاوز التحقق من المسارات الخطرة لـ rm/rmdir التي تستهدف / أو $HOME أو غيرها من الأدلة النظامية الحرجة.

8 إصلاحات طرفية تشمل: بروتوكول لوحة مفاتيح Kitty (Ctrl+-, Cmd+يسار/يمين)، عرض سكربتات Devanagari، حظر Ctrl+Z عبر عملية wrapper، تكرار scrollback في وضع inline، وعدة إصلاحات في VS Code/Warp/Ghostty.

الفئةالتغيير الرئيسي
الأداء/resume أسرع بنسبة 67% في جلسات 40 Mo+
UXمؤشر thinking تدريجي، والبحث في /config بحسب القيمة
الأمانsandbox يحترم حماية المسارات الحرجة
الطرفيات8 إصلاحات (Kitty، VS Code، Warp، Ghostty، WezTerm)
Pluginsالتثبيت التلقائي للاعتماديات الناقصة

🔗 CHANGELOG Claude Code


Live Artifacts في Claude Cowork

20 أبريل — تطلق Anthropic “Live Artifacts” في Claude Cowork: لوحات متابعة ومؤشرات ديناميكية متصلة مباشرة بتطبيقات المستخدم وملفاته.

وعلى عكس الـ artifacts التقليدية (الثابتة)، تُحدَّث Live Artifacts تلقائياً عند الفتح بالبيانات الحالية. وتُحفظ في تبويب جديد مخصص مع سجل إصدارات، ويمكن الوصول إليها من أي جلسة.

“In Cowork, Claude can now build live artifacts: dashboards and trackers connected to your apps and files. Open one any time and it refreshes with current data.”

🇸🇦 “في Cowork، يمكن لـ Claude الآن إنشاء artifacts ديناميكية: لوحات متابعة ومؤشرات متصلة بتطبيقاتك وملفاتك. افتح واحداً منها في أي وقت وسيُحدَّث بالبيانات الحالية.”@claudeai على X

الميزة متاحة في جميع الخطط المدفوعة عبر تحديث لتطبيق Claude.

🔗 إعلان @claudeai


Codex في المؤسسات: Codex Labs و7 شركاء تكامل

21 أبريل — تخطو OpenAI خطوة جديدة في نشر Codex على مستوى enterprise: إذ يستخدمه 4 ملايين مطور أسبوعياً (مقابل 3 ملايين في مطلع أبريل، أي +33% خلال أسبوعين)، وتطلق في الوقت نفسه Codex Labs وبرنامج شراكات مع 7 من كبار المدمجين العالميين.

يجلب Codex Labs خبراء OpenAI مباشرة إلى المؤسسات لعقد ورش عمل وجلسات عملية، بهدف مساعدة الفرق على الانتقال من الاستخدام التجريبي إلى النشر القابل للتكرار.

شركاء التكامل السبعة (GSI): Accenture وCapgemini وCGI وCognizant وInfosys وPwC وTata Consultancy Services.

الشركةاستخدام Codex
Virgin Atlanticتغطية الاختبارات، تقليل الدين التقني
Rampتسريع مراجعات الكود (code review)
Notionتطوير سريع لميزات جديدة
Ciscoفهم المستودعات الكبيرة المترابطة
Rakutenالاستجابة للحوادث (incident response)

يتوسع Codex الآن إلى ما بعد تطوير البرمجيات: تصفح عبر المتصفح، توليد الصور، الذاكرة، وتنظيم المهام العابرة للوظائف.

🔗 توسيع Codex إلى المؤسسات حول العالم


Nano Banana Pro في Google AI Studio

20 أبريل — يستفيد مشتركو Google AI Pro وUltra الآن من وصول أوسع إلى Google AI Studio من دون الحاجة إلى مفتاح API: وصول إلى Nano Banana Pro ونماذج Gemini Pro مع حدود استخدام أعلى.

يكفي تسجيل الدخول بحساب الاشتراك للانتقال من النموذج الأولي إلى الإنتاج. يضع هذا التطور اشتراك Google AI كجسر عملي للمطورين الذين يرغبون في التجريب من دون تعقيد الفوترة حسب كل طلب.

🔗 إعلان @GoogleAI 🔗 مقال blog.google


Kimi FlashKDA مفتوح المصدر

21 أبريل — تنشر Moonshot AI بصورة مفتوحة المصدر FlashKDA، وهو تنفيذها عالي الأداء المبني على CUTLASS لنوى Kimi Delta Attention (KDA).

المقياسالقيمة
تسريع prefill مقابل baseline‏1.72× إلى 2.22× على H20
التكاملbackend قابل للاستبدال مباشرةً لـ flash-linear-attention
المتطلباتSM90+، CUDA 12.9+، PyTorch 2.4+

يعمل FlashKDA كـ backend قابل للتبديل (drop-in) لـ flash-linear-attention. ويتوفر التكامل عبر PR ‏fla-org/flash-linear-attention#852.

🔗 مستودع GitHub الخاص بـ FlashKDA 🔗 تغريدة @Kimi_Moonshot


Git 2.54

20 أبريل — يتوفر Git 2.54 مع ثلاثة تطورات هيكلية.

git history (تجريبي) — أمر فرعي جديد لإعادة كتابة التاريخ من دون المرور عبر git rebase -i:

  • git history reword <commit> : تعديل رسالة commit وإعادة كتابة الفروع في مكانها
  • git history split <commit> : تقسيم commit إلى اثنين بشكل تفاعلي

Config-based hooks — يمكن الآن تعريف hooks داخل ملفات إعداد Git، وليس فقط في .git/hooks. وهذا يسمح بالمشاركة بين عدة مستودعات عبر ~/.gitconfig، واستخدام عدة hooks لنفس الحدث، وتعطيل كل واحد منها على حدة عبر hook.<name>.enabled = false.

Geometric repacking افتراضياً — يستخدم git maintenance الآن الاستراتيجية الهندسية افتراضياً، مما يحسن الأداء من دون إعدادات إضافية.

🔗 أبرز مستجدات Git 2.54 🔗 تغريدة @github


Genspark Build في معاينة عامة

21 أبريل — تطلق Genspark ‏Genspark Build في معاينة عامة (public preview): أداة لإنشاء التطبيقات والمواقع مدعومة بـ Claude Opus 4.7، وتغطي العملية كاملة من الفكرة إلى المخطط التصميمي والنموذج الأولي والكود العامل.

يحصل مستخدمو Plus وPro على 3 أيام من الوصول من دون أرصدة بين 21 و24 أبريل (9 صباحاً بتوقيت PT). وتوضح Genspark أنها تطلق الأداة “rough edges and all” — أي أنها ما تزال في طور البناء النشط.

وفي اليوم نفسه، تدمج Genspark أيضاً Lyria 3 Music في AI Music Agent الخاص بها وGemini 3.1 Flash TTS في AI Audio Agent.

🔗 تغريدة Genspark Build 🔗 تغريدة Lyria 3 + TTS


Cohere — بحث حول speculative decoding لنماذج MoE

21 أبريل — تنشر Cohere مقالاً بحثياً تقنياً حول تحسين نماذج mixture-of-experts (Mixture-of-Experts, MoE) باستخدام speculative decoding (speculative decoding).

تثبت الفريق على نماذجه MoE المستخدمة في الإنتاج — ومن بينها Command A (111 مليار parameter) — منحنى مكسب غير أحادي الرتابة بحسب حجم الدفعة: إذ تزداد المكاسب أولاً ثم تتراجع. وقد تم تحديد آليتين رئيسيتين: الترابط الزمني في توجيه الخبراء يقلل بنسبة 20 إلى 31% عدد الخبراء الفريدين المطلوب تحميلهم في الذاكرة، كما يفسر amortization للتكاليف الثابتة المكاسب المرتفعة عند BS=1.

🔗 مقال Cohere


Genspark Claw: Kimi K2.6 من اليوم الأول

21 أبريل — تدمج Genspark ‏Kimi K2.6 في أداة Claw الخاصة بها منذ يوم الإطلاق (Day 0)، عبر شراكة مع Fireworks AI التي رافقت مراحل ما قبل الإطلاق والاختبار.

🔗 تغريدة @genspark_ai


برنامج Anthropic STEM Fellows

21 أبريل — تطلق Anthropic برنامج STEM Fellows، الموجه إلى خبراء العلوم والهندسة للعمل إلى جانب فرق البحث على مشاريع تمتد لبضعة أشهر، ومقرها سان فرانسيسكو.

🔗 إعلان @AnthropicAI


ماذا يعني ذلك

يمثل 21 أبريل تقاطعاً بين الاستدلال والتوليد متعدد الوسائط. ويجسد gpt-image-2 اتجاهاً واضحاً: فالنماذج التوليدية تدمج الاستدلال كطبقة تنسيق، لا كتحسين للجودة فقط. والنتيجة نموذج قادر على البحث والتوليد والتحقق والتصحيح في الجلسة نفسها.

يدفع Deep Research Max المنطق نفسه في جانب البحث: فمع دعم MCP، يستطيع الوكيل الوصول إلى بيانات مملوكة ومنظمة، ما يفتح الباب أمام workflows تحليلية مستقلة من دون تصدير بيانات حساسة إلى خدمات طرف ثالث.

تشير شراكة NVIDIA × Adobe × WPP إلى أن تبني الذكاء الاصطناعي الإبداعي على مستوى enterprise يخرج من مرحلة التجربة. فـ OpenShell كـ runtime قابل للتدقيق يستجيب لتقييد حقيقي لدى المؤسسات الكبرى: يجب أن يكون من الممكن ملاحظة الوكلاء المستقلين وتتبعهم، لا أن يكونوا مجرد أدوات فعالة.

أما على مستوى الأدوات، فإن config-based hooks في Git 2.54 تطور معماري هادئ لكنه مهم: فالهooks المشتركة بين المستودعات عبر ~/.gitconfig ستغير ممارسات الفرق في توحيد workflows الخاصة بـ CI المحلي.


المصادر - تقديم ChatGPT Images 2.0

تمت ترجمة هذا المستند من النسخة fr إلى اللغة ar باستخدام النموذج gpt-5.4-mini. لمزيد من المعلومات حول عملية الترجمة، راجع https://gitlab.com/jls42/ai-powered-markdown-translator