الذكاء الاصطناعي التوليدي هو نوع من الذكاء الاصطناعي (AI) يمكنه مساعدتك في إنشاء المحتوى. ويمكنك الاستعانة به لزيادة إبداعك وإنتاجيتك وتوسيع معرفتك.
تقدّم هذه المقالة معلومات حول الذكاء الاصطناعي التوليدي، بما في ذلك:
- تعريف بالذكاء الاصطناعي التوليدي وكيفية عمله
- طريقة استخدام الذكاء الاصطناعي التوليدي وتقييم دقة ردوده
- كيفية تطوير Google للذكاء الاصطناعي
ما هو الذكاء الاصطناعي التوليدي؟
الذكاء الاصطناعي التوليدي هو أحد أنواع نماذج تعلُّم الآلة. وهو ليس إنسانًا، ولا يمكنه التفكير أو الإحساس بمشاعر، بل يجيد فقط رصد الأنماط.
استُخدِم الذكاء الاصطناعي في السابق لفهم المعلومات وتقديم الاقتراحات. أما الآن، فقد أصبح بإمكان الذكاء الاصطناعي التوليدي مساعدتنا أيضًا في إنشاء محتوى جديد، مثل الصور والموسيقى والرموز البرمجية.
طريقة تدريب نماذج تعلُّم الآلةبهدف تعليم نماذج تعلُّم الآلة، بما في ذلك الذكاء الاصطناعي التوليدي، يتم تدريبها على الملاحظة ومطابَقة الأنماط. لكي يفهم النموذج ما هو الحذاء الرياضي مثلاً، يتم تدريبه على الملايين من صور الأحذية الرياضية. وبمرور الوقت، يرصد النموذج أنّ الأحذية الرياضية هي أغراض يرتديها البشر في أقدامهم ولديها أربطة ونعال وتحمل شعارًا.
من خلال التدريب، يمكن أن ينجز النموذج المهام التالية:
- تلقّي طلبات، مثل "أنشئ صورة حذاء رياضي يحمل تميمة حظ على شكل ماعز"
- الرَبط بين ما تعلّمه عن الأحذية الرياضية والماعز وتمائم الحظ
- إنشاء صورة، حتى لو لم يصادف من قبل صورة مشابهة لها
يندرج الذكاء الاصطناعي التوليدي والنماذج اللغوية الكبيرة (LLM) ضمن التكنولوجيا نفسها. ويمكن تدريب الذكاء الاصطناعي التوليدي على أي نوع من البيانات، إلا أنّ النماذج اللغوية الكبيرة تعتمد على الكلمات كمصدر رئيسي لبيانات التدريب.
بإمكان التجارب المستنِدة إلى النماذج اللغوية الكبيرة، مثل Gemini و"تجارب البحث التوليدي"، توقُّع الكلمات المناسب إضافتها تاليًا في النص وذلك بناءً على طلبك والنص الذي أنشأته تلك النماذج حتى الآن. وتتميّز هذه التجارب بالمرونة في اختيار الكلمات التالية المحتَملة حسب الأنماط التي تعلّمَتها أثناء التدريب، ما يتيح لها إنشاء ردود إبداعية.
إذا طلبت منها ملء الفراغ في عبارة "عمرو [فراغ]"، قد تتوقّع بأنّ الكلمة التالية هي "دياب" أو "أديب".
طريقة استخدام الذكاء الاصطناعي التوليدي
ملاحظة مهمة: بإمكان تجارب Google المستنِدة إلى الذكاء الاصطناعي التوليدي أن تساعدك في الإبداع والاستلهام. وليس الغرض منها إنجاز كل المهام نيابةً عنك أو الابتكار بدلاً منك.
إليك 3 طُرق لاستخدام الذكاء الاصطناعي التوليدي:
- تبادُل الأفكار الإبداعية: على سبيل المثال، يمكنك الحصول على المساعدة في كتابة مقدِّمة حول فيلمك المفضّل.
- طَرح أسئلة لم تكُن تعتقد أنّ لها إجابة: مثلاً، "الدجاجة قبل أم البيضة؟"
- الحصول على مساعدة إضافية: يمكنك طلب الحصول على عنوان مقترَح لقصة كتبْتها، أو طلب المساعدة في تحديد نوع حيوان أو حشرة في إحدى الصور.
من المهمّ استخدام الذكاء الاصطناعي التوليدي بشكل مسؤول أثناء رحلة الاستكشاف والإنشاء والتعلّم. لمعرفة التفاصيل، يُرجى الاطّلاع على سياسة الاستخدام المحظور للذكاء الاصطناعي التوليدي.
الذكاء الاصطناعي مُعرّض دائمًا للوقوع في الخطأ:بما أنّ الذكاء الاصطناعي التوليدي لا يزال في مرحلة تجريبية وقيد التطوير، فإنّه معرَّض دائمًا لارتكاب الأخطاء:
- قد يختلق معلومات غير صحيحة: عندما يقدّم الذكاء الاصطناعي التوليدي إجابةً مختلَقة، يُعرَف ذلك باسم الهلوسة. على خلاف "بحث Google" الذي يجمع المعلومات من الويب، لا تجمع النماذج اللغوية الكبيرة أي معلومات على الإطلاق، بل تتوقّع الكلمات التالية استنادًا إلى البيانات التي أدخلها المستخدمون، ما يجعلها عُرضة للهلوسة.
- على سبيل المثال، قد تطرح السؤال، "من سيفوز في مباريات الجمباز للسيدات في الألعاب الأولمبية الصيفية لعام 2032 في بريسبان؟" وتحصل على إجابة حتى قبل بداية الحدث.
- قد يسيء فهم المحتوى: في بعض الأحيان، قد تفسّر منتجات الذكاء الاصطناعي التوليدي اللغة بشكل خاطئ، ما يؤدي إلى تغيير المعنى.
- قد يريد المستخدم مثلاً معرفة المزيد عن مدينة العيون المغربية، ولكن عند طلب مزيد من المعلومات عن العيون، قد تقدّم هذه المنتجات معلومات عن العيون في جسم الإنسان.
عليك التفكير بشكل نقدي بالردود التي تقدّمها أدوات الذكاء الاصطناعي التوليدي. استخدِم Google ومصادر أخرى للتحقّق من صحة المعلومات المُقدَّمة على أنّها وقائع.
إذا وجدت معلومة غير صحيحة، أبلِغ عنها. فالعديد من منتجات الذكاء الاصطناعي التوليدي تتضمّن أدوات إبلاغ. وتساعدنا ملاحظاتك على تطوير النماذج وتحسين تجارب الجميع في استخدام أدوات الذكاء الاصطناعي التوليدي.
لا تزال ميزات الترميز التوليدية تجريبية، وتتحمل أنت مسؤولية استخدامك للترميز المقترَح أو تفسيرات الترميز. يُرجى توخّي الحذر واختبار جميع الرموز بعناية قبل استخدامها للتأكّد من عدم وجود أخطاء وثغرات فيها. وتقع عليك مسؤولية الالتزام بأي متطلبات تتعلّق بالتراخيص، مثلاً عند استخدام رموز مقتبسة من مستودعات الرموز المفتوحة المصدر. مزيد من المعلومات
كيفية تطوير Google للذكاء الاصطناعي
حرصًا منّا على إنشاء أدوات يستفيد منها الجميع، وضعنا مجموعة من مبادئ الذكاء الاصطناعي في عام 2018، وهي توضّح أهدافنا المتمثلة في تطوير تكنولوجيا متقدمة يمكنها التغلّب بطريقة مسؤولة على بعض أكبر التحديات التي يواجهها المجتمع.
على سبيل المثال، نستخدم الذكاء الاصطناعي لتنفيذ ما يلي:
- دعم الجهود المبذولة للحد من التغيّر المناخي، مثل تخفيف التوقّف المتكرّر في حركة المرور لخفض الانبعاثات الصادرة من المركبات
- توقّع الكوارث الطبيعية أو مراقبتها، مثل توقّع حدوث فيضانات في أكثر من 20 بلدًا وتتبُّع حدود انتشار حرائق الغابات في الوقت الفعلي
- دعم الابتكارات في مجال الرعاية الصحية، مثل تسهيل إجراء فحص السل والمساعدة في الكشف المبكر عن سرطان الثدي
تحدّد مبادئنا أيضًا المجالات التي لن نسعى لاستخدام الذكاء الاصطناعي فيها، مثل التكنولوجيات التي تسبّب ضررًا عامًا أو تنتهك القانون الدولي وحقوق الإنسان.
الاطّلاع على قائمة مبادئ الذكاء الاصطناعي الكاملة
تستخدم Google تفاعلات المستخدمين مع "بحث Google" وتجارب الذكاء الاصطناعي التوليدي على "بحث Google" لتطوير هذه التجارب وتكنولوجيات تعلُّم الآلة التي تستند إليها وتحسينها. تشمل تلك التفاعلات المواضيع التي يبحث عنها المستخدمون والملاحظات التي يقدّمونها، مثل إبداءات الإعجاب أو عدم الإعجاب. تشكّل المراجعات التي تجريها الفِرق المختصة إحدى الطرق المتعددة التي نقيّم بها جودة نتائجنا ومنتجاتنا ونحسّنها بشكل مسؤول.
عندما يعمل المراجعون المدرَّبون على تحسين جودة نماذج تعلُّم الآلة في "بحث Google"، نتّخذ عددًا من الإجراءات الاحتياطية لحماية خصوصية المستخدمين:
- لا يتم ربط حسابات المستخدمين بالبيانات التي يراها المراجعون ويضيفون تعليقات توضيحية إليها.
- بمساعدة الأدوات المبرمَجة، يتم التعرّف على مجموعة واسعة من المعلومات الشخصية الحسّاسة والمعلومات التي تحدد هوية المستخدمين، وتتم إزالتها.