السبت 09/مايو/2026 - 06:30 ص
بدأت شركة أبل مراحل الاختبارات النهائية لجيل ثوري جديد من سماعات "AirPods" المزودة بكاميرات مدمجة، في خطوة تقنية جريئة تهدف إلى دمج الذكاء الاصطناعي مع الأجهزة القابلة للارتداء لتعزيز تجربة المستخدم البصرية والسمعية في آن واحد.
تستهدف أبل من خلال هذه الكاميرات المجهرية تزويد السماعات بقدرات "الرؤية الحاسوبية"، حيث ستتمكن السماعات من تحليل البيئة المحيطة بالمستخدم وتقديم معلومات فورية حول الأشياء والأماكن.
وتعمل هذه الكاميرات بالتكامل مع نظارات "Vision Pro" وهواتف آيفون، مما يتيح للسماعة فهم حركات اليدين والرأس بدقة أكبر، وتطوير ميزات الصوت المحيطي لتصبح أكثر تفاعلاً مع الواقع.
تعتمد التقنية الجديدة على معالجات متطورة قادرة على معالجة الصور والبيانات محلياً لضمان الخصوصية وسرعة الاستجابة.
وبدلاً من الاعتماد على الشاشات، ستكون السماعة قادرة على "وصف" ما تراه للمستخدم، مثل قراءة لافتات الشوارع أو تقديم توجيهات ملاحية دقيقة، مما يجعلها أداة حيوية ليس فقط للترفيه، بل أيضاً لدعم ذوي الإعاقة البصرية وتسهيل حياتهم اليومية.
تواجه أبل تحديات هندسية كبيرة لدمج العدسات داخل الهيكل الصغير للسماعات دون التأثير على جودة الصوت أو زيادة الوزن.
وتشير التسريبات إلى أن الشركة طورت نظاماً جديداً لإدارة الطاقة يضمن عدم استنزاف البطارية بسبب تشغيل الكاميرات المستمر، مع الحفاظ على التصميم الأنيق الذي اشتهرت به عائلة "AirPods" طوال السنوات الماضية.
Loading ads...
تؤكد هذه الخطوة أن أبل لا تنظر إلى السماعات كمجرد أداة للاستماع، بل كمنصة ذكية متكاملة للحواس، ومن المتوقع أن يغير هذا الابتكار حال طرحه رسمياً مفهومنا عن الأجهزة القابلة للارتداء، وينقل التفاعل مع الذكاء الاصطناعي إلى مستوى أكثر عمقاً وواقعية.
لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه




