آخر الفيديوهات!

مهندس سابق في OpenAI حول مخاطر الذكاء الاصطناعي: "نحن على بعد أقل من ثلاث سنوات من الكارثة"

ليست هذه هي المرة الأولى التي تهتز فيها شركة OpenAI وذكاءها الاصطناعي بسبب الجدل. في الواقع، قام سام ألتمان نفسه برعاية رؤية للمستقبل معقدة على الأقل. ومع ذلك، فقد انضم الآن عضو سابق في الشركة إلى الأصوات التي تحذر من المخاطر التي يمكن أن تشكلها هذه التكنولوجيا العصرية.
الشيء الغريب في الأمر هو أن هذا المهندس، الذي شارك بنشاط في كل ما يتعلق بـ ChatGPT، لم يتردد في مقارنة تطور الذكاء الاصطناعي مع تيتانيك نفسها: وفقًا له، مثل السفينة، يمكن للذكاء الاصطناعي أيضًا أن يؤدي إلى كارثة.
من المحتمل جدًا أن اسم William Saunders لا يعني الكثير بالنسبة لك. ففي نهاية المطاف، لا يتمتع خبير الذكاء الاصطناعي هذا بشعبية رئيسه السابق سام ألتمان، أو غيره من معلمي التكنولوجيا على قدم المساواة مع إيلون ماسك أو بيل جيتس. ومع ذلك، عندما يناقش موضوع الذكاء الاصطناعي، فلا شك أنه يعرف حقًا ما يتحدث عنه. 
لتحقيق ذلك ما عليك سوى إلقاء نظرة على حياته المهنية.  عمل William Saunders لمدة ثلاث سنوات في فريق التوافق الفائق في OpenAI، وكان أحد المسؤولين عن ChatGPT الشهير. إلا أنه استقال من منصبه قبل عام، بسبب ما وصفه بإدارة الشركة غير المسؤولة للمخاطر المتعلقة بالذكاء الاصطناعي.
ماذا يعني هذا بالضبط؟ ولتفسير ذلك بتشبيه معروف لدى الجميع، أراد المهندس أن يقارن عمله القديم مع أولئك الذين بنوا سفينة التايتنك في يومها. وكما حدث مع سفينة المحيط الشهيرة، أظهرت الشركة ثقة مفرطة في إجراءاتها الأمنية وعدم الاستعداد للكوارث المحتملة.
هذا على الأقل ما يعتقده William Saunders ، الذي تجرأ حتى على تحديد تاريخ يمكن فيه إطلاق العنان للمخاطر المرتبطة عادة بالذكاء الاصطناعي. ولن تكون طويلة، على وجه التحديد. وهو يعتقد أنه في غضون ثلاث سنوات يمكن أن نعاني بالفعل من عواقب ما يعتبره، في رأيه، طريقة غير مسؤولة في التصرف.
أحد تحذيراته الرئيسية هو قدرة الذكاء الاصطناعي على التأثير على القرارات البشرية الحاسمة، مثل الانتخابات والأسواق المالية، دون أن يكتشف المجتمع تدخله. ويبدو أن هذا القلق مرتبط بالدراسات الحديثة التي توضح كيف أن النماذج المتقدمة، مثل GPT-4، قادرة بالفعل على خداع البشر في الألعاب الإستراتيجية.
علاوة على ذلك، ليس لدى William Saunders أدنى شك في أن كلا من أوبن إيه آي وسام ألتمان يلاحقان سياسة بالغة الخطورة: إعطاء الأولوية للمصالح التجارية على الأبحاث، وفي المقام الأول، التدابير الأمنية. 



from حوحو للمعلوميات https://ift.tt/R24kTsE
صور المظاهر بواسطة fpm. يتم التشغيل بواسطة Blogger.