بعد المرحلة الأولى فقط من الذكاء الاصطناعي (NAI).. رعب عالمي
متى يمكن للآلات أن تهيمن على البشر؟ وهل يؤدي الذكاء الاصطناعي إلى انقراض البشر؟
قد يؤدي الذكاء الاصطناعي إلى انقراض البشرية، كما حذر بعض الخبراء بينهم رئيسا شركتي “أوبن إيه آي” و”جوجل ديبمايند”، ولكن متى يمكن للآلات أن تهيمن على البشر؟
منذ إطلاقه في نوفمبر 2022، و”تشات جي بي تي”، روبوت الدردشة الذي يستخدم الذكاء الاصطناعي للإجابة على الأسئلة أو إنشاء نص أو حتى كود بناء على طلب المستخدمين، يعد أسرع تطبيق إنترنت نموًا في التاريخ.
وخلال شهرين فقط، وصل مستخدموه إلى 100 مليون، وهو رقم استغرق تطبيق انستجرام عامين ونصف للوصول إليه، وفقًا لشركة المراقبة التكنولوجية “سينسور تاون”.
الشعبية الهائلة لتشات جي بي تي، الذي طورته شركة “أوبن إيه آي” بدعم مالي من مايكروسوفت، أثارت تكهنات شديدة حول تأثير الذكاء الاصطناعي على مستقبل البشرية.
ودعم عشرات الخبراء بيانًا نُشر على صفحة الويب الخاصة بمركز أمان الذكاء الاصطناعي، قائلين: “ينبغي أن يكون الحد من خطر الانقراض بسبب الذكاء الاصطناعي أولوية عالمية، إلى جانب المخاطر المجتمعية الأخرى كالأوبئة والحروب النووية”. لكن آخرين يقولون إن المخاوف مبالغ فيها.
محاكاة البشر
إن النصوص (من المقالات والشعر والنكات إلى كود الكمبيوتر) والصور (كالرسوم البيانية واللقطات المصورة والأعمال الفنية) التي تنتجها أنظمة الذكاء الاصطناعي مثل “تشات جي بي تي” و”دال إي” و”بارد” و “ألفاكود”، لا يمكن تمييزها عن العمل البشري.
ويستخدمها الطلاب لكتابة واجباتهم المدرسية والسياسيون لكتابة الخطب، والمثال على ذلك الخطاب الذي ألقاه الممثل الديمقراطي جيك أوشينكلوس في الكونجرس الأمريكي، باستخدام الذكاء الاصطناعي.
وقالت شركة “آي بي إم” العملاقة للتكنولوجيا إنها ستتوقف عن توظيف أفراد لشغل 7800 وظيفة، طالما يمكن أن يحل محلها الذكاء الاصطناعي.
إذا كانت كل هذه التغييرات ترهقك، فاستعد لذلك: نحن في المرحلة الأولى فقط من الذكاء الاصطناعي، وهناك مرحلتان أخريان يخشى بعض العلماء أن تهدد بقاء الجنس البشري.
المراحل الثلاث للذكاء الاصطناعي
في المرحلة الثالثة: الذكاء الاصطناعي الفائق (ASI) سيكون الذكاء الاصطناعي أعلى من الذكاء البشري.
1. الذكاء الاصطناعي ضيق النطاق (NAI)
يركز الذكاء الاصطناعي ضيق النطاق على مهمة واحدة، وأداء عمل متكرر ضمن مجموعة محددة من الوظائف. ويتعلم بشكل عام من الكثير من البيانات عبر الإنترنت، ولكن فقط في المنطقة المحددة التي جرت برمجته من أجلها.
ومن الأمثلة على ذلك برامج الشطرنج، القادرة على التغلب على بطل العالم، لكنها غير قادرة على أداء مهام أخرى.
وتمتلئ الهواتف الذكية بالتطبيقات التي تستخدم هذه التقنية، من خرائط الـ”جي بي إس” إلى برامج الموسيقى والفيديو التي تعرف ذوقك وتقدم اقتراحات بناءً عليه.
حتى الأنظمة الأكثر تطورًا كالسيارات ذاتية القيادة وتشات جي بي تي، هي أشكال من الذكاء الاصطناعي ذات النطاق الضيق. إنها غير قادرة على العمل خارج نطاق مجموعة من الأدوار، لذا لا يمكنها اتخاذ القرارات بمفردها.
ومع ذلك، يعتقد بعض الخبراء أن الأنظمة المبرمجة للتعلم تلقائيًا، مثل “تشات جي بي تي” و”أوتو جي بي تي”، يمكن أن تنتقل إلى المرحلة التالية من التطوير.
2. الذكاء الاصطناعي العام (AGI)
يجرى الوصول إلى مرحلة الذكاء الاصطناعي العام، عندما تتمكن الآلة من أداء أي مهمة فكرية يستطيع الإنسان القيام بها. وتعرف أيضًا بـ “الذكاء الاصطناعي القوي”.
في مارس 2022، دعا أكثر من 1000 خبير تقني “جميع مختبرات الذكاء الاصطناعي إلى التوقف فورًا لمدة 6 أشهر على الأقل، عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من “جي بي تي 4″، أحدث إصدار من تشات جي بي تي.
وكتب أحد مؤسسي شركة “أبل”، ستيف وزنياك، ورواد التكنولوجيا الآخرين ومنهم إيلون ماسك، مالك شركة تيسلا وسبيس إكس: “يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري أن تشكل مخاطر عميقة على المجتمع والإنسانية”. وكان ماسك أحد مؤسسي شركة “أوبن إيه آي”، قبل أن يستقيل من مجلس الإدارة بسبب خلافات مع قيادة الشركة.
في الخطاب الذي نشره معهد “فيوتشر أوف لايف” غير الربحي، قال الخبراء إنه إذا رفضت الشركات المسارعة بوقف مشاريعها، “ينبغي على الحكومات أن تتدخل وتوقفها” كي يتسنى اتخاذ تدابير السلامة اللازمة وتنفيذها.
“غباء بقدر الذكاء”
كاريسا فيليز، من معهد أخلاقيات الذكاء الاصطناعي بجامعة أكسفورد، وقعت على الخطاب، لكنها تعتقد أن البيان الأخير الصادر عن مركز أمان الذكاء الاصطناعي، الذي حذر من انقراض البشر، يبالغ كثيرًا، وقررت عدم التوقيع عليه.
وقالت لمراسل بي بي سي أندرو ويب: “نوع الذكاء الاصطناعي الذي نصنعه في الوقت الحالي غبي بقدر ما هو ذكي، وإذا جرب أي إنسان “تشات جي بي تي” أو أنظمة ذكاء اصطناعي أخرى، فسيلاحظ فرض قيود شديدة بالغة الأهمية عليها”.
لكن فيليز تقول إنها قلقة من أن الذكاء الاصطناعي قد يلفق معلومات مضللة بمعدل ضخم.
“مع اقتراب موعد الانتخابات الأمريكية في عام 2024، ومع تسريح القائمين على سلامة وأخلاقيات الذكاء الاصطناعي في منصات مهمة مثل تويتر وغيرها، أشعر بقلق أكبر حيال ذلك”.
تعترف حكومة الولايات المتحدة بالتهديدات المحتملة. وقال البيت الأبيض في بيان يوم الرابع من مايو: “الذكاء الاصطناعي أحد أقوى التقنيات في عصرنا، ولكن لاغتنام الفرص التي يوفرها، ينبغي علينا أولًا الحد من مخاطره”.
واستدعى الكونجرس الأمريكي الرئيس التنفيذي لشركة “أوبن إيه آي”، سام التمان، للإجابة عن أسئلة حول “تشات جي بي تي”.
خلال جلسة الاستماع في مجلس الشيوخ، قال ألتمان إنه من “الضروري” أن تنظم الحكومة هذا المجال؛ لأن الذكاء الاصطناعي يغدو “قويًا بشكل مطرد”.
3. الذكاء الاصطناعي الفائق (ASI)
عندما نصل إلى المرحلة الثانية (AGI)، سننطلق نحو المرحلة النهائية: “الذكاء الاصطناعي الفائق”، والذي قد يحدث عندما يكون الذكاء الاصطناعي أعلى من الذكاء البشري.
ويُعرِّف “نيك بوستروم”، الفيلسوف وخبير الذكاء الاصطناعي بجامعة أكسفورد، الذكاء الفائق بأنه ذكاء “يتفوق بشكل كبير على أفضل العقول البشرية في كل المجالات تقريبًا، بما يشمل الإبداع العلمي والحكمة العامة والمهارات الاجتماعية”.
ويوضح جوتيريث: “لكي يصبح الإنسان مهندسًا أو ممرضًا أو محاميًا، يتعين عليه أن يدرس لفترة طويلة. والمشكلة مع الذكاء الاصطناعي العام هي أنه يمكنه تطوير نفسه باستمرار، في وقت لم نتمكن فيه من ذلك”.
يعود هذا المفهوم إلى فيلم “ذا تيرمينيتور”، حيث تشعل الآلات حربًا نووية لتدمير البشرية.
سبق وأن صرح “آرفيند نارايانان”، عالم الكمبيوتر بجامعة برينستون، لبي بي سي بأن سيناريوهات الكوارث الشبيهة بالخيال العلمي غير واقعية قائلا: “إن الذكاء الاصطناعي الحالي ليس قريبًا من امتلاكه القدرة الكافية على تحقيق هذه المخاطر. ونتيجة لذلك، ينصرف الانتباه عن أضرار الذكاء الاصطناعي على المدى القريب”.
ورغم الجدل الدائر حول مدى اكتساب الآلات الذكاء الواسع الذي يتمتع به الإنسان، لاسيما الذكاء العاطفي، إلا أنها من أكثر الأشياء التي تقلق من يعتقدون في أننا نقترب من الوصول إلى المرحلة الثالثة.
في مقابلة حديثة مع بي بي سي، حذر من يلقب بـ “الأب الروحي للذكاء الاصطناعي” جيفري هينتون، الرائد في تعليم الآلات من خلال التجربة، من أننا ربما نقترب من هذه المرحلة.
وقال الرجل البالغ من العمر 75 عامًا، والذي استقال حديثًا من جوجل: “في الوقت الحالي، الآلات ليست أذكى منا، بقدر ما أستطيع أن أرى، لكنني أعتقد أنها قد تكون قريبة من تحقيق ذلك”
وفي بيان أرسله إلى صحيفة نيويورك تايمز أعلن فيه مغادرته شركة جوجل، قال هينتون إنه نادم على ما قدمه من عمل؛ لأنه يخشى أن تستخدم “الجهات السيئة” الذكاء الاصطناعي للقيام “بأشياء سيئة”.
وضرب مثالًا على “سيناريو الكابوس” لبي بي سي قائلا: “تخيل على سبيل المثال، أن بعض الجهات السيئة مثل [الرئيس الروسي فلاديمير] بوتين، قرر منح الروبوتات القدرة على إنشاء أهداف خاصة بها”
وحذر من أن الآلات يمكنها في النهاية “إنشاء أهداف فرعية مثل:”أنا بحاجة لاكتساب مزيد من القوة”، ما قد يشكل “خطرًا وجوديًا”.
لكن هينتون قال إنه يعتقد أنه “على المدى القريب” سيحقق الذكاء الاصطناعي فوائد أكثر بكثير من المخاطر، “لذلك لا أعتقد أنه ينبغي علينا التوقف عن تطوير هذه الأشياء”.
توقعات: قريبًا سيكون البشر قادرين على تحقيق الخلود بفضل الروبوتات النانوية التي تعمل داخل أجسامنا، وإصلاح أي ضرر أو مرض.
الفناء أو الخلود
أطلق الفيزيائي البريطاني “ستيفن هوكينج” تحذيرًا صارخًا. وقال لبي بي سي في 2014، قبل أربع سنوات من وفاته: “إن تطوير ذكاء اصطناعي بالكامل قد يعني نهاية الجنس البشري”. وقال إن آلة بهذا المستوى من الذكاء “ستنطلق من تلقاء نفسها وتعيد تصميم نفسها بمعدل متزايد”.
في المقابل، هناك أحد أكبر المتحمسين للذكاء الاصطناعي، وهو المخترع والمؤلف المستقبلي “راي كورزويل”، الباحث في الذكاء الاصطناعي في جوجل والمؤسس المشارك لجامعة “سينغيولاريتي” في وادي السيليكون.
الروبوتات النانوية والخلود
يعتقد كورزويل أن الإنسان سيكون قادرًا على استخدام الذكاء الاصطناعي الفائق، للتغلب على الحواجز البيولوجية.
في عام 2015، توقع أنه بحلول عام 2030 سيكون البشر قادرين على تحقيق الخلود بفضل الروبوتات النانوية (الصغيرة للغاية) التي تعمل داخل أجسامنا، وإصلاح أي ضرر أو مرض.
حوكمة الذكاء الاصطناعي
يوافق جوتيريث على أن المفتاح هو إنشاء نظام حوكمة للذكاء الاصطناعي.
وقال: “تخيل مستقبلاً يوجد فيه كيان يمتلك الكثير من المعلومات حول كل إنسان على هذا الكوكب وعاداته [بفضل عمليات البحث على الإنترنت] بحيث يمكنه التحكم بنا بطرق لا ندركها”.
“أسوأ سيناريو ليس اندلاع حروب بين البشر والروبوتات. الأسوأ هو أننا لا ندرك حدوث تلاعب بنا، لأننا نتشارك على هذا الكوكب مع كيان أشد منا ذكاء”.
“الأب الروحي للذكاء الاصطناعي” يستقيل من جوجل ويحذر من مستقبل مظلم:
نادم على ما عملت.. أخشى أن تستخدم “الجهات السيئة” الذكاء الاصطناعي للقيام “بأشياء سيئة”.
على مدى عقود، عمل جيفري هينتون على تطوير منتجات متعددة كان أحدها تطوير روبوتات الدردشة القائمة على تقنية GPT. تقدم هينتون باستقالته من عمله على خلفية مخاوف متصاعدة من أضرار جسيمة قد يسببها الذكاء الاصطناعي مستقبلاً.
وبهذه الاستقالة، ينضم هينتون إلى مجموعة متزايدة من المنتقدين، الذين يقولون إن شركات التقنية العالمية تتسابق نحو خطر محدق بتطويرها منتجات تعتمد على الذكاء الاصطناعي التوليدي، وهي التكنولوجيا التي تدعم برامج الدردشة الشهيرة مثل Chat GPT.
وفي تصريحات نقلتها عنه هيئة الإذاعة البريطانية قال هينتون إن بعض مخاطر برامج الدردشة الآلية باتت “مخيفة للغاية”، وأضاف: “في الوقت الحالي، هم ليسوا أكثر ذكاء منا، لكنني أعتقد أنهم قد يفوقوننا ذكاء قريبًا”.
والمعروف أن جيفري هينتون هو أحد رواد الذكاء الاصطناعي، ففي عام 2012، ابتكر هينتون واثنان من طلابه في جامعة تورنتو تقنية أصبحت فيما بعد الأساس الفكري لمنظومة الذكاء الاصطناعي، وهي الأنظمة التي تعتقد أكبر شركات صناعة التكنولوجيا أنها مفتاح المستقبل.
وبحسب ما نشرت صحيفة نيويورك تايمز، قال الدكتور هينتون إنه استقال من وظيفته في جوجل (Google)، حيث عمل لأكثر من عقد وأصبح أحد أكثر الأصوات احترامًا في هذا المجال، وذلك حتى يتمكن من التحدث بحرية عن مخاطر الذكاء الاصطناعي، مضيفًا أنه يحمل بداخله ندمًا شديدًا على المشاركة في أبحاث تطوير الذكاء الاصطناعي، وذلك خلال مقابلة أجرتها معه الصحيفة.
ويعتقد قادة صناعة التقنية أن الذكاء الاصطناعي المتطور – والذي بدأت عدة شركات في دمجه بمتصفحات الويب منذ أوائل التسعينيات – يمكن أن يؤدي إلى تقدم شديد للغاية في مجالات تتراوح من أبحاث الأدوية إلى التعليم. لكن على جانب آخر، يرى العديد من المطلعين على الصناعة سريعة التطور أن هناك مخاوف متعاظمة من إطلاق “شيء خطير” قد يصعب السيطرة عليه لاحقًا.
ويخشى خبراء التقنية من أن نموذج الذكاء الاصطناعي التوليدي “GPT” يمكن أن يكون بالفعل مصدرًا للتضليل ونشر المعلومات غير الصحيحة كما يمكن أن يشكل خطرًا على الوظائف، ويذهب أكثر القلقين في مجال التكنولوجيا إلى أنه قد يشكل خطرًا على البشرية نفسها.
وقال هينتون لشبكة “بي بي سي” إن وجود مثل هذه التقنية الآخذة في التطور بسرعة في أيدي الجهات السيئة “سيكون نوعًا من أسوأ السيناريوهات، نوع من السيناريوهات الكابوسية” .. “يمكنك أن تتخيل ما سيكون عليه الأمر، على سبيل المثال، إن قام بعض الفاعلين السيئين مثل [الرئيس الروسي فلاديمير] بوتين باتخاذ قرار بمنح الروبوتات القدرة على إنشاء أهداف فرعية خاصة بها”.
وأعرب عن خوفه من تمكن الذكاء الاصطناعي من إنشاء برمجيات كومبيوتر يمكنها أن تقوم من خلالها بتشغيل برامج أخرى بنفسها ليأتي يوم تصبح فيه تلك الروبوتات قاتلة وتمتلك سلاحًا يمكنها تشغيله دون إذن البشر.
وقال الدكتور هينتون: “من الصعب أن ترى كيف يمكنك منع الجهات الفاعلة ذات الأغراض الخبيثة من استخدام تلك التقنية في أشياء سيئة”، وتابع: “في الوقت الحالي، ما نراه هو أن أشياء مثل GPT-4 تتفوق على الشخص في مقدار المعرفة العامة التي يمتلكها وربما تتفوق عليه كثيرًا. صحيح أن الناتج من حيث التفكير ليس جيدًا، ولكنه بدأ بالفعل في التفكير ولو بشكل بسيط”، “وبالنظر إلى معدل تطور هذه البرامج، نتوقع أن تتحسن الأمور بسرعة كبيرة.. لذلك علينا أن نقلق بشأن ذلك.”
وبعد أن أصدرت شركة Open A I الناشئة في سان فرانسيسكو إصدارًا جديدًا من Chat GPT في مارس، وقع أكثر من 1000 من قادة التكنولوجيا والباحثين خطابًا مفتوحًا يدعون فيه إلى وقف تطوير أنظمة جديدة من هذا الذكاء الاصطناعي لمدة ستة أشهر حيث “تشكل التقنيات مخاطر جسيمة على المجتمع والإنسانية”.
وبعد عدة أيام ، أصدر 19 من القادة الحاليين والسابقين لجمعية النهوض بالذكاء الاصطناعي – وهي جمعية أكاديمية عمرها 40 عامًا – خطابًا خاصًا حذروا فيه من مخاطر الذكاء الاصطناعي. ضمت تلك المجموعة إريك هورفيتز، كبير المسؤولين العلميين في مايكروسوفت Microsoft، التي نشرت تقنية Open A I عبر مجموعة واسعة من منتجاتها، بما في ذلك محرك بحث Bing.
من هو جيفري هينتون؟
الدكتور هينتون هو باحث بريطاني يبلغ من العمر 75 عامًا، وهو أكاديمي بارز عمل طوال حياته مدفوعًا بقناعاته الشخصية حول أهمية تطوير واستخدام الذكاء الاصطناعي. في عام 1972، وكطالب دراسات عليا في جامعة إدنبرة، تبنى هينتون فكرة تسمى الشبكة العصبية (neural network) وهي نظام رياضي يتعلم المهارات من خلال تحليل البيانات. في ذلك الوقت، كان عدد قليل من الباحثين يؤمن بالفكرة، لكنه أصبح لاحقًا عمل حياته.
والشبكات العصبية هي أنظمة تشبه الدماغ البشري في الطريقة التي تتعلم بها المعلومات وتعالجها، وهي اتصال عدد غير محدود من أجهزة الكومبيوتر ذات القدرات العالية بشكل يشبه اتصال الخلايا العصبية في الدماغ البشري، وبشكل يُمكّن أنظمة الذكاء الاصطناعي من التعلم من التجربة كما يفعل أي شخص وهو ما يطلق عليه اسم التعلم العميق (deep learning).
وفي الثمانينيات، كان الدكتور هينتون أستاذًا لعلوم الكمبيوتر في جامعة كارنيجي ميلون، لكنه ترك الجامعة إلى كندا وقال إنه كان مترددًا في الحصول على تمويل من البنتاجون، ففي ذلك الوقت، كانت معظم تطبيقات الذكاء الاصطناعي تحصل على تمويل من قبل وزارة الدفاع الأمريكية. ويعارض الدكتور هينتون بشدة استخدام الذكاء الاصطناعي في ساحة المعركة أو ما أصبح متعارف عليه اليوم باسم “الروبوتات الجنود robot soldiers”.
في عام 2012، أنشأ الدكتور هينتون واثنان من طلابه في تورنتو، هما إيليا سوتسكيفر وأليكس كريشيفسكي، شبكة عصبية يمكنها تحليل آلاف الصور وتعليم نفسها تحديد شكل واسم بعض الأشياء الشائعة، مثل الزهور والكلاب والسيارات. لكن شركة جوجل أنفقت نحو 44 مليون دولار لشراء شركة أسسها الدكتور هينتون وطلابه قائمة على هذه الفكرة. غادر سوتسكيفر الشركة ليصبح فيما بعد كبير العلماء في شركة Open A I.
أدى العمل الذي قام به هينتون وطلابه فيما بعد إلى إنشاء تقنيات قوية بشكل متزايد، بما في ذلك روبوتات الدردشة الجديدة مثل Chat GPT و Google Bard.
وفي عام 2018، حصل الدكتور هينتون واثنان آخران من المتعاونين القدامى معه على جائزة تورينج، التي غالبًا ما تسمى “جائزة نوبل للحوسبة”، لعملهم على الشبكات العصبية.
الاتحاد الاوروبي يضع معايير صارمة أمام الذكاء الاصطناعي
يسعى الاتحاد الأوروبي إلى لجم الذكاء الاصطناعي والسيطرة عليه من خلال قواعد ومعايير تنظم استخدامه. وفي هذا الإطار ناقش البرلمان الأوروبي مشروع قانون الذكاء الاصطناعي، فما هي ملامحه ومبادئه الأساسية؟
أقرّ مشروعون في الاتحاد الأوروبي، تعديلات على مسودة لقواعد الذكاء الاصطناعي، يرى كثيرون أنها ضرورية لتنظيم استخدامات هذه التقنية الثورية، بينما ينظر إليها آخرون بأنها تمثل “حواجز تشريعية” أمام تطوير هذا المجال الذي له استعمالات مفيدة أيضًا وعلى درجة عالية من الأهمية.
ومن بين التعديلات التي أقرّها المشرعون في مسودة قواعد الذكاء الاصطناعي، حظر استخداماته في رصد القياسات الحيوية مثل بصمة الوجه والصوت.
كذلك تشمل التعديلات، إلزام مستخدمي الأنظمة التوليدية للذكاء الاصطناعي مثل “تشات جي بي تي”، بالكشف عن أن المحتوى الناتج عنها، تم بالاستعانة بهذه التقنية.
ويريد المشرعون من الشركات، الكشف عن أي مواد محمية بحقوق الملكية الفكرية تستخدمها في تدريب أنظمتها للذكاء الاصطناعي.
وتقوم فكرة الإطار التنظيمي للاتحاد الأوربي بالنسبة للذكاء الاصطناعي على تحليل تلك الأنظمة، وتصنيفها وفقًا للمخاطر التي تشكلها على المستخدمين.
وتمثل المخاطر غير المقبولة، تلك التي تعتبر تهديدًا للمستخدمين وسيتم حظرها، مثل التلاعب السلوكي المعرفي للأشخاص أو المجموعات الضعيفة، كالألعاب التي يتم تنشيطها بالصوت والتي تشجع على السلوك الخطير لدى الأطفال.
ويندرج تصنيف الأشخاص على أساس السلوك أو الحالة الاجتماعية والاقتصادية أو الخصائص الشخصية، تحت الفئة الأولى من المخاطر.
وقد يسمح ببعض الاستثناءات مثل أنظمة تحديد الهوية عن بعد، حيث سيتيح ذلك محاكمة المجرمين الخطيرين، شريطة موافقة المحكمة.
أما الفئة الثانية من المخاطر فهي العالية، أي التي تؤثر سلبًا على السلامة أو الحقوق الأساسية، وستقسّم إلى أنظمة الذكاء الاصطناعي المستخدمة في المنتجات التي تندرج تحت تشريعات السلامة في الاتحاد الأوروبي، ويشمل ذلك الألعاب والطيران والسيارات والأجهزة الطبية والمصاعد.
وستندرج أنظمة الذكاء الاصطناعي في ثمانية مجالات محددة يجب تسجيلها في قاعدة بيانات الاتحاد الأوروبي، وهي تحديد الهوية وتصنيف الأشخاص، وإدارة وتشغيل البنية التحتية الحيوية، والتعليم والتدريب المهني، والتوظيف وإدارة العمال والوصول إلى العمل الحر، والتمتع بالخدمات الأساسية الخاصة والخدمات والمزايا العامة، وتطبيق القانون، وإدارة الهجرة واللجوء ومراقبة الحدود، والمساعدة في التفسير القانوني وتطبيق القانون.
وستقيّم جميع أنظمة الذكاء الاصطناعي عالية المخاطر قبل طرحها، وأيضا طوال دورة حياتها.
ويقع الذكاء الاصطناعي التوليدي في الفئة الثالثة للمخاطر، إذ يؤكد الاتحاد الأوروبي على ضرورة توافق ذلك النوع من الذكاء مثل “تشات جي بي تي” مع متطلبات الشفافية.
وتتضمن متطلبات الشفافية، الكشف عن أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي، وتصميم النموذج لمنعه من توليد محتوى غير قانوني، ونشر ملخصات للبيانات المحمية بحقوق النشر والمستخدمة للتدريب.
وأخيرًا، يجب أن تمتثل أنظمة الذكاء الاصطناعي ذات المخاطر المحدودة مع الحد الأدنى من متطلبات الشفافية التي من شأنها أن تسمح للمستخدمين باتخاذ قرارات مستنيرة. أي بعد التفاعل مع التطبيقات، يمكن للمستخدم بعد ذلك أن يقرر ما إذا كان يريد الاستمرار في استخدامه.
ويجب توعية المستخدمين عند تفاعلهم مع تقنيات الذكاء الاصطناعي، ويتضمن ذلك تلك التي تنشئ محتوى الصور أو الصوت أو الفيديو أو تتلاعب به، كالتزييف العميق على سبيل المثال.
وبالنسبة للخطوة التالية بالنسبة للمشروع، فستكون المحادثات مع دول الاتحاد الأوروبي بشأن الشكل النهائي للقانون، من أجل إلى اتفاق بحلول نهاية هذا العام.
مدير شركة Open A I الأمريكية، سام ألتمان، التي طورت برنامج المحادثة “تشات جي بي تي/ Chat GPT” حذر من التنظيم الزائد خلال زيارته إلى ألمانيا، لكنه تراجع عن تهديده السابق بعدم توفير خدمات “تشات جي بي تي” في أوروبا. وأشار إلى أن وضع قواعد للذكاء الاصطناعي أمر جيد من حيث المبدأ، لكن “نحتاج للوضوح”. ألتمان شخصية مرموقة ولكلامه وزن في مجال الذكاء الاصطناعي، فخلال زيارته إلى ألمانيا استقبله المستشار أولاف شولتس.
الضغوط التي تمارسها شركة Open A I والشركة الأم مايكروسوفت، لا تثير قلق عضو البرلمان الأوروبي رينيه ريبازي، فهو يرى أن السوق الأوروبية جذابة جدًا لمقدمي خدمات الذكاء الاصطناعي، ولا يستطيعون تجاهلها. ويقول ريبازي الذي ينتمي لكتلة الاشتراكيين الديمقراطيين في البرلمان الأوروبي “من يريد أن يبيع/ تقديم ذكائه الاصطناعي هنا، يجب أن يمتثل لمعاييرنا”.
من المرجح أنه يجب الانتظار حتى بداية عام 2025 ليكتمل قانون الذكاء الاصطناعي ويدخل حيز التنفيذ في أوروبا، إذ أنه ليس بحاجة لموافقة البرلمان الأوروبي فقط، وإنما موافقة جميع الدول الـ 27 الأعضاء في الاتحاد أيضا. وتطورات الذكاء الاصطناعي مثل “تشات جي بي تي” لم تكن مطروحة في الأسواق قبل عامين ويمكن أن يكون الذكاء الاصطناعي قد تطور بشكل كبير حين تدخل قواعد الاتحاد الأوروبي حيز التنفيذ.
والنائب فوس الذي ينتمي لكتلة المسيحيين الديمقراطيين يهتم منذ أعوام بالذكاء الاصطناعي ويساهم بشكل فعال في صياغة قانون الاتحاد الأوروبي للذكاء الاصطناعي، ويحذر من التعامل بحظر صارم مع الذكاء الاصطناعي، بقوله “لأسباب تنافسية ولأننا متخلفون، في الواقع نحن بحاجة لمزيد من الانفتاح للتعامل بشكل مكثف مع مسألة الذكاء الاصطناعي. لكن ما يظهر لدى الأغلبية هنا في البرلمان الأوروبي، هو أنها تسترشد بالمخاوف والقلاقل وتحاول استبعاد كل شيء”.
مع الذكاء الاصطناعي الأفراد المتعلمون أكثر عرضة للتهديد من الأفراد الأقل تعليمًا
الوظائف الأمنة: الوظائف الإبداعية – المهن التي تتطلب علاقات شخصية – المهن اليدوية
منذ بداية الثورة الصناعية، كان هناك شعور بالخوف والتهديد، بأن الآلات الميكانيكية الجديدة – من آلات نسج الأقمشة إلى الرقائق الدقيقة – سوف تقضي على الوظائف البشرية.
وبالنسبة لمعظم البشر كان هذا هو التفكير السائد وقتها. والآن، ومع وجود الذكاء الاصطناعي في كل مكان، فإن بعض الخبراء أدركوا أن التهديد قادم: فالروبوتات (الرجال الآليون) قادمة لتحلّ مكان بعض الوظائف.
لن نشهد هجومًا كاملًا في الوقت الحالي
لحسن الحظ، ليست كل الأخبار سيئة. فقد أطلق الخبراء تحذيراتهم مع بعض التحفظ، فلا تزال هناك أشياء لا يستطيع الذكاء الاصطناعي القيام بها – فالمهام التي تنطوي على صفات بشرية مميزة، مثل الذكاء العاطفي والتفكير خارج الصندوق لن يتم المساس بها في الوقت الحالي. لذلك فإن انتقال الأفراد إلى وظائف تعتمد على تلك المهارات سيساعد في تقليل استخدام الروبورتات بدلا من البشر.
قد يستطيع الروبوت تشخيص الأمراض بشكل أسرع، لكن المرضى سيرغبون التعامل مع أناس حقيقين لتوجيههم وتثقيفهم
يقول فورد: “أعتقد وبشكل عام أن هناك ثلاث فئات ستكون بمعزل عن هذا التهديد نسبيا في المستقبل المنظور”.
“الفئة الأولى هي الوظائف الإبداعية: فأنت لا تقوم بعمل منظم أو مجرد إعادة ترتيب الأشياء، لكنك تبتكر أفكارا جديدة وتبني شيئًا جديدًا”.
وهذا لا يعني بالضرورة أن جميع المهن التي تعدّ “إبداعية” ستكون بمأمن. في الواقع، قد تكون بعض المهن مثل التصميم الجرافيكي والمهن المتعلقة بالفن المرئي من بين أوائل المهن المهددة؛ إذ يمكن للخوارزميات الأساسية توجيه الروبوت لتحليل ملايين الصور، ما يسمح للذكاء الاصطناعي بإتقان فن الجماليات على الفور.
ولكن هناك بعض الأمان في مهن إبداعية أخرى، كما يقول فورد: “في العلوم والطب والقانون والأفراد الذين تتمثل وظيفتهم في وضع استراتيجية قانونية جديدة أو استراتيجية عمل جديدة. أعتقد أن العنصر البشري سيبقى له مكان في تلك المهن”.
ويضيف فورد أن الفئة الثانية المعزولة عن مخاطر الذكاء الاصطناعي هي المهن التي تتطلب علاقات شخصية معقدة، مثل مهنة التمريض ومستشاري الأعمال والصحفيين الاستقصائيين.
يقول أيضًا: “تلك المهن التي تحتاج إلى فهم عميق جدًا للأشخاص، أعتقد أنه سيمر وقت طويل قبل أن يمتلك الذكاء الاصطناعي القدرة على التفاعل وفهم طرق بناء العلاقات العميقة”.
الوظائف اليدوية
يقول فورد إن الفئة الثالثة الآمنة هي “الوظائف التي تتطلب الكثير من الحركة والبراعة والقدرة على حل المشكلات في بيئات غير متوقعة”. فالعديد من الوظائف التجارية – مثل الكهربائي والسبّاك و الحداد وما شابه ذلك – تندرج تحت هذه المظلة.
ويضيف: “هذه هي أنواع الوظائف التي تتعامل خلالها مع أوضاع جديدة طوال الوقت”.
“ربما يكون من الصعب أتمتة هذه المهن، إذ قد تحتاج إلى روبوت خيال علمي مثل روبوت C-3PO في سلسلة أفلام حرب النجوم”.
وبينما من المرجّح أن يسيطر البشر على المهن التي تقع ضمن تلك الفئات الثلاث، فإن هذا لا يعني أن تلك المهن معزولة تمامًا عن خطر تطور الذكاء الاصطناعي. تقول جوان سونغ ماكلولين، الأستاذة المساعدة في اقتصاديات العمل بجامعة بوفالو في الولايات المتحدة، إن معظم الوظائف – بغض النظر عن قطاع الصناعة الذي تنتمي له – من المحتمل أن تتم أتمتة بعض جوانبها بواسطة التكنولوجيا.
الوظائف التي تتطلب الكثير من الحركة والبراعة والقدرة على حل المشكلات في بيئات غير متوقعة، لا تزال بعيدة عن متناول الذكاء الاصطناعي
وتقول ماكلولين: “في كثير من الحالات، لا يوجد تهديد مباشر للوظائف، لكن المهام ستتغير”.
ستركز الوظائف البشرية على المهارات الشخصية، وتتابع ماكلولين بالقول: “من السهل أن نتخيل، على سبيل المثال، أن الذكاء الاصطناعي سيصبح قادرًا على اكتشاف أنواع السرطانات بطريقة أفضل من البشر. في المستقبل، أفترض أن الأطباء سيستخدمون تلك التكنولوجيا الجديدة. لكنني لا أعتقد أنه سيتم استبدال دور الطبيب بالكامل”.
في حين أن الروبوت قد يقوم بعمل أفضل ظاهريًا في اكتشاف مرض السرطان، كما تقول ماكلولين، فإن معظم الناس ما زالوا يريدون طبيبًا – شخصًا حقيقيًا – ليكون الشخص الذي يخبرهم بذلك. وتضيف أن هذا ينطبق على جميع الوظائف تقريبًا، وبالتالي فإن تطوير تلك المهارات البشرية المميزة يمكن أن يساعد الناس على فهم وظائفهم بشكل أفضل وجنبًا إلى جنب مع الذكاء الاصطناعي.
“أعتقد أنه من الذكاء التفكير بأنواع المهام في وظيفتي التي سيتم استبدالها، أو سيتم القيام بها بشكل أفضل بواسطة الكمبيوتر أو الذكاء الاصطناعي؟ وما هي مهارتي التكميلية؟”.
تذكر ماكلولين مثالا على ذلك، ففي وقت سابق كان من الضروري أن يكون صرافو البنوك دقيقين للغاية في عدّ النقود. الآن، تمت أتمتة هذه المهمة – ولكن لا يزال هناك مكان للصراف. يمكن للآلة أن تعدّ النقود بشكل أفضل من صرافي البنوك، لكن الذكاء الاصطناعي مازال يفتقر إلى مهارات التواصل مع العملاء
“ولكن الآن، يركز الصرافون بشكل أكبر على التواصل مع العملاء وتقديم خدمات جديدة. أصبحت المهارة الاجتماعية أكثر أهمية”.
المال والشهادة ليسا وسيلة دفاع ضد الذكاء الاصطناعي
يقول فورد من المهم ملاحظة أن حصول الشخص على تعليم عال أو شغله منصبًا مرموقًا، لن يوفر له حماية كافية ضد استحواذ الذكاء الاصطناعي.
ويتابع بالقول: “إن مستقبل شخص يعمل في وظيفة مرموقة مهدد أكثر من شخص يعمل بوظيفة سائق؛ لأننا ما زلنا لا نملك سيارات ذاتية القيادة، لكن الذكاء الاصطناعي يمكنه بالتأكيد كتابة التقارير”.
ويشير فورد أنه في كثير من الحالات، سيكون الأفراد المتعلمون أكثر عرضة للتهديد حتى من الأفراد الأقل تعليمًا.
“فكر في الشخص الذي يعمل في تنظيف غرف الفنادق – من الصعب حقا أتمتة هذه الوظيفة”.
باختصار، يعتبر البحث عن وظائف في بيئات ديناميكية ومتغيرة تتضمن مهامًا غير متوقعة طريقة جيدة لتفادي فقدانها بواسطة الذكاء الاصطناعي، على الأقل لفترة من الوقت.
الذكاء الاصطناعي في خدمة السياسة
بين مؤيدين يحاولون تبرير تسخير الإمكانيات التي توفرها أدوات الذكاء الاصطناعي، ومحذرين من خطورة إقحامها في عالم السياسة، يتعاظم شأن هذه التقنية الثورية وتطبيقاتها في التأثير على الجمهور، والسياسات الخارجية والداخلية، والقوة الناعمة. فمع الكم الكبير من تقنيات الذكاء الاصطناعي التي تطال مختلف جوانب الحياة، لم تكن السياسة بمنأى عنها.
ففي اليابان، استجوب نائب في البرلمان رئيس الوزراء بأسئلة اقترحها روبوت الدردشة “شات جي بي تي”، أواخر مارس الفائت.
كذلك صاغ الروبوت في فرنسا، تعديلًا لمشروع قانون للألعاب الأولمبية لعام 2024.
ولكن كيف يمكن للذكاء الاصطناعي أن يدعم السياسيين، ويعزز آليات صنع القرار، ويخلق مشهدًا سياسيًا أكثر شمولًا واستجابة لتطلعات المواطنين؟
يمكن لخوارزميات الذكاء الاصطناعي تحليل كميات هائلة من البيانات من مصادر متنوعة، مما يوفر للسياسيين معلومات أولية لا تقدر بثمن حول أي قضية.
ومن خلال الاستعانة بقوة الذكاء الاصطناعي، يمكن للسياسيين الوصول إلى بيانات في الوقت الفعلي حول المشاعر العامة والاتجاهات الديموغرافية وفعالية السياسات المقترحة أو المعتمدة.
وبفضل هذا النهج المستند إلى البيانات، يمكن صنع القرارات القائمة على الأدلة، مما يسمح للسياسيين بصياغة سياسات تتماشى مع احتياجات وتطلعات ناخبيهم، وتواجه التحديات مهما كانت معقدة.
وبما أن تخصيص الموارد، وتحسين كفاءتها لتعظيم الفوائد المجتمعية، يمثل إحدى المسؤوليات الرئيسية للسياسيين، يبرز دور الذكاء الاصطناعي من خلال تحسين تخصيص الموارد بناء على عوامل مختلفة، مثل التركيبة السكانية للسكان، والمؤشرات الاقتصادية، ومتطلبات البنية التحتية.
فبفضل النماذج التنبؤية التي تعمل بالذكاء الاصطناعي، يمكن للسياسيين تحديد المجالات التي تتطلب استثمارات مستهدفة، وتحديد أولويات المبادرات، وتحسين مخصصات الميزانية، الأمر الذي يوفر الاستخدام الفعال للموارد، وبالمحصلة نتائج أفضل وتحسين ثقة الجمهور.
وبما أن التعامل مع الناخبين ركن أساسي في هرم السياسة، فبمقدور أدوات الذكاء الاصطناعي إحداث ثورة في هذه العملية، من خلال تسهيل قنوات الاتصال الشخصية والتفاعلية.
وسيستطيع السياسيون باللجوء لخوارزميات معالجة اللغة الطبيعية (NLP) تحليل وتصنيف كميات هائلة من ردود الفعل العامة، مما يمكّنهم من اكتساب فهم أعمق للمشاعر والتطلعات والاهتمامات العامة.
وبالنسبة لدور روبوتات الدردشة، فستكون أدوات مساعدة للسياسيين في تعزيز الاستجابة السريعة، وبناء علاقات أقوى مع الناخبين، وتعزيز بيئة سياسية أكثر تشاركية.
وستحل أنظمة الذكاء الاصطناعي معضلة تأثير التحيزات البشرية غير المقصودة على القرارات السياسية، والتي تقوّض مبادئ العدالة والمساواة.
فاعتماد الخوارزميات المستندة إلى البيانات، ستجعل الذكاء الاصطناعي يقدم تحليلات موضوعية وتوصيات، تقلل من تأثير التحيزات الفردية.
وعلاوة على ذلك، يمكن للذكاء الاصطناعي دعم إجراء عمليات انتخابية أكثر ديمقراطية وشفافية من خلال أدوات كتحسين إعادة تقسيم الدوائر، والمراجعة الآلية لتمويل الحملات.
طفرة في عالم الطب.. أول مضاد حيوي بتقنية الذكاء الاصطناعي
ما زال الذكاء الاصطناعي يبهرنا في جميع المجالات، وكان آخرها ابتكاره لمضاد حيوي جديد يقضي على البكتيريا الخارقة. فكيف حدث ذلك؟!
أشارت دراسة نُشرت حديثًا في مجلة طبيعة الكيمياء الحيوية (بالإنجليزية Nature Chemical Biology) إلى التوصل لمضاد حيوي جديد باستخدام تقنية الذكاء الاصطناعي يستطيع القضاء على عدوى بكتيرية مميتة ومقاومة للأدوية.
وقد كشفت نتائج هذه الدراسة عن مضاد حيوي جديد هو أباوسين (Abaucin) يستطيع قتل نوع من البكتيريا الخارقة تُسمى الراكدة البومانية (Acinetobacter baumannii)، وهي نوع خطير من البكتيريا المقاومة للمضادات الحيوية والتي يمكن أن تصيب الجروح، وقد تؤدي إلى التهاب رئوي، وعادةً ما تعيش في المستشفيات.
وأوضح الباحثون أنه تمت الاستعانة بتقنية الذكاء الاصطناعي بعد تدريبه أولًا ليتمكن من تقييم مدى فاعلية المركبات في تثبيط نمو البكتيريا، ومن ثَمَّ أدخلت بيانات 6680 مركبًا جديدًا. واستطاع برنامج الذكاء الاصطناعي استبعاد آلاف المركبات منها واختيار عدد محدود رجح فاعليته. والعجيب أن الذكاء الاصطناعي استغرق أقل من ساعتين فقط لانتقاء هذه المركبات، وهو وقت ضئيل جدًا مقارنة بما يستغرقه الباحثون للقيام بهذه العملية.
وقام الباحثون بعد ذلك باختيار 240 مركبًا مما انتقاه الذكاء الاصطناعي لتجربتها عمليًا، وأظهرت النتائج فاعلية 9 منها كان الأباوسين أكثرهم فاعلية وقوة في القضاء على بكتيريا الراكدة البومانية في الجروح عند تجربته على فئران مصابة بها.
وعلاوة على هذه النتائج الواعدة، لاحظ الباحثون أن المضاد الحيوي الذي ابتكره الذكاء الاصطناعي استطاع القضاء على هذه البكتيريا المميتة دون المساس بالبكتيريا النافعة في الجسم، بعكس ما تفعله المضادات الحيوية الأخرى، وهو ما يشير إلى أن دقة الأباوسين قد تحول دون تطوير مقاومة ضده، بل ويمكن أن يكون أقل آثارًا جانبية.
وأشار القائمون على هذه الدراسة إلى أن الخطوة التالية هي بدء تجربة المضاد الحيوي أباوسين على نطاق واسع وكذلك إجراء التجارب السريرية، ويُتوقع أن يكون الدواء متاحًا للمرضى عام 2030.
ويُعد هذا الابتكار خطوة قد تشكل ثورة في عالم الطب والعلوم، وربما سيساعد ذلك في اكتشاف مضادات حيوية أخرى تقضي على البكتيريا المقاومة وتؤدي إلى إنقاذ أرواح الكثيرين.
الذكاء الاصطناعي: تقرير يحذر من فقدان 300 مليون وظيفة في العالم مستقبلًا
الذكاء الاصطناعي سينجز 46% من المهام الإدارية و44% من المهن القانونية، و6% في قطاع البناء و4% في قطاع الصيانة
ذكر تقرير صادر عن بنك الاستثمار جولدمان ساكس، إن الذكاء الاصطناعي يمكن أن يحل محل ما يعادل 300 مليون وظيفة بدوام كامل خلال الفترة المقبلة.
وبحسب التقرير فإن تقنيات الذكاء الاصطناعي ستقوم بمهام ربع الوظائف في الولايات المتحدة وأوروبا، لكن هذا قد يعني أيضا وظائف جديدة وانتعاشًا في الإنتاجية.
وفي النهاية قد يؤدي هذا إلى زيادة القيمة السنوية الإجمالية للسلع والخدمات المنتجة عالميا بنسبة 7%.
ويقول التقرير إن الذكاء الاصطناعي، القادر على إنشاء محتوى مشابه بصورة كبيرة لما ينتجه البشر، يمثل “تقدمًا كبيرًا”.
فرص العمل
وتحرص الحكومة على تشجيع الاستثمار في الذكاء الاصطناعي في بريطانيا، والذي تقول إنه “سيؤدي في النهاية إلى زيادة الإنتاجية عبر الاقتصاد”، وقد حاولت الحكومة طمأنة الجمهور بشأن تأثيره.
وقالت وزيرة التكنولوجيا ميشيل دونيلان، لصحيفة صن البريطانية: “نريد التأكد من أن الذكاء الاصطناعي يكمل الطريقة التي نعمل بها في بريطانيا، ولا يعمل على تعطيلها، مما يجعل توفير وظائف أفضل، بدلا من التخلص من الموظفين”.
ويشير التقرير إلى أن تأثير الذكاء الاصطناعي سيختلف بحسب القطاعات المختلفة التي يعمل بها، حيث يمكن استخدامه لإنجاز 46% من المهام الإدارية و44% من المهن القانونية، لكن هذه النسب ستتراجع في قطاع البناء إلى 6% فقط و4% في قطاع الصيانة”.
وذكرت بي بي سي نيوز في وقت سابق أن هناك مخاوف لدى بعض الفنانين من أن توليد الصور بالذكاء الاصطناعي قد تضر بمستقبل عملهم.
“رواتب متدنية”
قال كارل بينيديكت فراي، مدير مستقبل العمل في مدرسة أكسفورد مارتن بجامعة أكسفورد، لبي بي سي نيوز: “الشيء الوحيد الذي أنا متأكد منه هو أنه لا توجد طريقة لمعرفة عدد الوظائف التي سيتم استبدالها بالذكاء الاصطناعي”.
وأضاف أن “ما يفعله تشات جي بي تي، على سبيل المثال، هو السماح لمزيد من الأشخاص ذوي المهارات الكتابية المتوسطة بإنتاج كتابات ومقالات”.
الصحفيون سيواجهون المزيد من المنافسة بسبب تشات جي بي تي، مما قد يؤدي إلى انخفاض الأجور
وحذر فراي من أن الصحفيين سيواجهون المزيد من المنافسة، مما قد يؤدي إلى انخفاض الأجور، ما لم نشهد زيادة كبيرة جدًا في الطلب على مثل هذا العمل.
وقال: “مع الأخذ في الاعتبار إدخال تقنية جي بي أس ومنصات مثل أوبر. فجأة، أصبحت معرفة جميع الشوارع في لندن بلا قيمة كبيرة، وبالتالي أدى هذا إلى معاناة السائقين الحاليين من تخفيضات كبيرة في الأجور بنسبة تصل إلى 10%، وفقًا لأبحاثنا”. “وكانت النتيجة انخفاض الأجور وليس انخفاض عدد السائقين”.
وأكد أن السنوات القليلة المقبلة، “من المرجح أن يكون للذكاء الاصطناعي التوليدي تأثيرات مماثلة على مجموعة أوسع من المهام الإبداعية”.
“قليل من الحذر”
وفقًا لبحث استشهد به التقرير، يعمل 60% من العمال في مهن لم تكن موجودة في عام 1940.
لكن تشير أبحاث أخرى إلى أن التغيير التكنولوجي منذ الثمانينيات أدى إلى التخلي عن العمال بشكل أسرع مما خلق فرص عمل.
وخلص التقرير إلى أنه إذا كان الذكاء الاصطناعي يشبه التطورات السابقة في تكنولوجيا المعلومات، فقد يؤدي ذلك إلى تقليل التوظيف على المدى القريب.
لكن الرئيس التنفيذي لمؤسسة ريزوليوشنز للأبحاث تورستن بيل، قال لبي بي سي نيوز إن التأثير طويل المدى للذكاء الاصطناعي، كان غير مؤكد إلى حد كبير رغم هذا، “لذلك يجب أن تؤخذ كل التوقعات الثابتة مع قليل من الحذر”.
وأضاف: “لا نعرف كيف ستتطور التكنولوجيا أو كيف ستدمجها الشركات في طريقة عملها”.
وشدد على أن هذا لا يعني أن الذكاء الاصطناعي لن يعطل الطريقة التي نعمل بها، ولكن يجب أن نركز أيضًا على مكاسب معيشية محتملة من العمل بإنتاجية عالية وخدمات أقل تكلفة، “بالإضافة إلى مخاطر التخلف عن الركب إذا الشركات والاقتصادات الأخرى تتكيف بشكل أفضل مع التغير التكنولوجي “.