This is the Trace Id: e3e58c272bdaffc54edb90de87029619
تخطي إلى المحتوى الرئيسي
Microsoft AI
تسجيل الدخول

الذكاء الاصطناعي المسؤول في Microsoft

استكشف الأدوات والممارسات والنُهج التي أنشأناها للحفاظ على مبادئ الذكاء الاصطناعي المسؤول.
الذكاء الاصطناعي المسؤول في Microsoft

التزامنا بالذكاء الاصطناعي المسؤول

في Microsoft، نحن ملتزمون بتصميم تقنيات الذكاء الاصطناعي وبناءها وإطلاقها بشكل مسؤول - مع إبقاء البشر في المركز وتوجيههم بمبادئنا. لخصنا التزامنا في ستة قيم أساسية:

سرّع نمو الأعمال باستخدام الذكاء الاصطناعي الموثوق

تعلّم كيف تسرّع تبني الذكاء الاصطناعي، وتقلل المخاطر، وتعزز ثقة العملاء باستخدام الذكاء الاصطناعي بمسؤولية وأمان.

الأدوات والتدريبات

اعثر على الموارد لمساعدتك في تقييم قرارات أكثر استنارة وفهمها واتخاذها بشأن تطوير الذكاء الاصطناعي واستخدامه.
صورة لرجل يجلس على طاولة ويستخدم قلم.
المصنف

مصنف تجربة الذكاء الاصطناعي البشرية (HAX)

ساعد مؤسستك على تحديد أفضل الممارسات وتنفيذها للتفاعل بين الإنسان والذكاء الاصطناعي.
صورة لامرأة تنظر إلى شاشة الكمبيوتر.
المدوّنة

إنشاء تطبيقات آمنة وموثوق بها باستخدام الذكاء الاصطناعي في Azure

استكشف قدرات المنتج لتعزيز الأمن والسلامة والخصوصية لأنظمة الذكاء الاصطناعي.
صورة لكمبيوتر محمول مع شاشة على طاولة
مربع الأدوات

لوحة معلومات الذكاء الاصطناعي المسؤول

يمكنك الوصول إلى مجموعة من الأدوات لمساعدتك في إنشاء تجربة ذكاء اصطناعي مخصَّصة ومسؤولة شاملة.
نهج

نهج الذكاء الاصطناعي المتقدم

اكتشف أحدث المنظورات حول سياسة الذكاء الاصطناعي من خبراء Microsoft.

جعل الذكاء الاصطناعي المسؤول قابل للتحقيق

اكتشف كيف تعمل Microsoft على تعزيز التعاون ومساعدة الجميع على استخدام الذكاء الاصطناعي بشكل مسؤول.

الأسئلة المتداولة

  • الذكاء الاصطناعي المسؤول هي مجموعة من الخطوات التي نتخذها للتأكد من أن أنظمة الذكاء الاصطناعي موثوق بها وتلتزم بمبادئ المبدأ الأساسي. وهذا يتضمن العمل على قضايا مثل العدالة والموثوقية والسلامة والخصوصية والأمان والشمول والشفافية والمساءلة. والتفكير بعمق في الطرق التي نصمم بها ونبني ونشغل بها أنظمة الذكاء الاصطناعي.
  • تضمن Microsoft العدالة في أنظمة الذكاء الاصطناعي الخاصة بها من خلال نهج شامل يتضمن المبادئ والممارسات والأدوات المصممة للتخفيف من التحيز وتعزيز الشمول.

    تتضمن مبادئ الذكاء الاصطناعي المسؤول لشركة Microsoft العدالة والموثوقية والسلامة والخصوصية والأمان والشمول والشفافية والمساءلة. توجه هذه المبادئ تطوير أنظمة الذكاء الاصطناعي ونشرها لضمان معاملة الجميع على قدم المساواة ومنع التمييز على أساس الخصائص الشخصية. وتؤكد Microsoft أيضاً على أهمية التحقق من صحة نماذج الذكاء الاصطناعي بشكل مسؤول لتعزيز العدالة والتوافق مع الواقع.
  • عند استخدام أدوات الذكاء الاصطناعي التوليدي، تشمل الاعتبارات الأخلاقية معالجة التحيز والإنصاف، وضمان الخصوصية والأمان، والحفاظ على الشفافية والمساءلة، وتعزيز الشمول، وضمان الموثوقية والسلامة. ومن المهم أيضاً ضمان الدقة والصدق، والحفاظ على الرقابة البشرية، وتطوير أطر صنع القرار الأخلاقي، والامتثال للمتطلبات القانونية والتنظيمية، وتجنب التحيز الضار. تساعد هذه الخطوات على ضمان الاستخدام المسؤول والعادل لتقنيات الذكاء الاصطناعي.
  • لتقديم الذكاء الاصطناعي بشكل مسؤول، يجب على المنظمات تطوير معيار الذكاء الاصطناعي المسؤول، مثل معيار Microsoft، الذي يغطي مبادئ مثل العدالة والموثوقية والخصوصية والشمول.

    فيما يلي الخطوات الإضافية التي قد تتخذها المؤسسات لضمان استخدام الذكاء الاصطناعي المسؤول:
    • يمكن إنشاء مكتب الذكاء الاصطناعي المسؤول للإشراف على السلوكيات والإدارة.
    • يمكن تنفيذ أدوات حوكمة الذكاء الاصطناعي مثل لوحة معلومات الذكاء الاصطناعي المسؤول من Microsoft لمراقبة أنظمة الذكاء الاصطناعي وإدارتها.
    • يمكن إشراك أصحاب المصلحة في جميع أنحاء المنظمة وتوفير التدريب على مبادئ وممارسات الذكاء الاصطناعي المسؤول.
  • يتذكر Microsoft Copilot التفاصيل التي تهم حياتك اليومية مع الحفاظ على أمان بياناتك الشخصية وحماية خصوصيتك. يمكنك دائماً إدارة تفضيلات الخصوصية في إعدادات خصوصية Copilot.

    عند استخدام Copilot في العمل، يتم توريث جميع متطلبات الأمان والتوافق الحالية، بحيث يمكن للأشخاص الذين لديهم الأذونات المناسبة فقط الوصول إلى المحتوى الذي تقوم بإنشائه.

    بصفتها شركة، تلتزم Microsoft بتوفير ذكاء اصطناعي جدير بالثقة—من خلال عقود من البحث وملاحظات العملاء ونقاط المعرفة التي تزود معرفة القدرات التي توفر الخصوصية والسلامة والأمان.

تعرَّف عل المزيد عن الذكاء الاصطناعي في Microsoft

متابعة Microsoft