ستكون ميزة “Multisearch” (البحث المتعدّد)، وهي ميزة لتطبيق “غوغل” “Lens“، الذي يمكنه البحث عن الصور والنصوص في وقت واحد، متاحة قريباً على نطاق أوسع بعد وصولها إلى الولايات المتحدة كإصدار تجريبيّ في وقت سابق من هذا العام.
وتقول “غوغل” إنّ البحث المتعدّد سيتوسّع إلى أكثر من 70 لغة في الأشهر المقبلة.
With multisearch, you can take a pic *and* ask a question to get the look you want or fix something. 🤯 We’re bringing this new way to search to 70+ languages. And soon, you’ll be able to add “near me” to your image to find what you’re looking for nearby. #SearchOn pic.twitter.com/RHxRQm42EU
— Google (@Google) September 28, 2022
يهدف البحث المتعدّد إلى تمكين الأشخاص من توجيه الكاميرا إلى شيء ما والسؤال عنه أثناء استخدامهم لتطبيق “غوغل”. ويمكن مثلاً توجيه الهاتف إلى متجر وطلب تفاصيل عنه، أو الاستفسار عن لقطة شاشة لأيّ عنصر غير مألوف، مثل قطعة من الملابس. يمكن أيضاً البحث عن نوع معيّن من الموادّ الغذائية، ومعرفة المطاعم التي تقدّمها.
What you love about Translating with Lens is now even better. 💡
With major advancements in AI, translated text appears seamlessly integrated, as if it was part of the original picture. Turning text… into context! #SearchOn pic.twitter.com/N8YySv87z1
— Google (@Google) September 28, 2022
لكن واجهة التطبيق ستشهد تفييرات عندما يتعلّق الأمر بترجمات الواقع المعزّز، حيث ستستخدم “غوغل” نفس تقنية الذكاء الاصطناعي التي تستخدمها لميزة “Magic Eraser“ لجعل النص الجديد يبدو كأنّه يحلّ محلّ النص الأصلي، بدلاً من تركيب الترجمة في الأعلى. الفكرة هي جعل الترجمات تبدو أكثر سلاسة وطبيعية.
التعليقات