تاريخ الذكاء
من خلال الأساطير والقصص والإشاعات ، يتم منح الإنسان الاصطناعي الحكمة أو الوعي من قبل الحرفيين المهرة. زرع بذور الذكاء الاصطناعي الحديث فلاسفة كلاسيكيون سعوا إلى وصف عمليات التفكير البشري بأنها تلاعب ميكانيكي بالرموز. أدى هذا العمل إلى اختراع الكمبيوتر الرقمي القابل للبرمجة في الأربعينيات من القرن الماضي ، وهو آلة تقوم على أساس التفكير المنطقي الرياضي. ألهم الجهاز والفكرة الكامنة وراءه بعض العلماء لمناقشة إمكانية بناء دماغ إلكتروني بجدية.
تأسس مجال أبحاث الذكاء الاصطناعي في صيف 1956 في ندوة في حرم كلية دارتموث. أولئك الذين يشاركون سيكونون قادة في عقود من أبحاث الذكاء الاصطناعي. توقع الكثير منهم أن الآلات ذات الذكاء البشري لن تكون موجودة لأكثر من جيل ، وتم منحهم ملايين الدولارات لجعل هذه الرؤية حقيقة واقعة.
في النهاية ، من الواضح أنهم قللوا بشكل كبير من صعوبة المشروع. في عام 1973 ، توقفت حكومتا الولايات المتحدة والمملكة المتحدة عن تمويل الأبحاث غير الموجهة في الذكاء الاصطناعي ردًا على انتقادات جيمس لايتيل والضغط المستمر من الكونجرس ، وأطلق على السنوات الصعبة التي تلت ذلك “شتاء الذكاء الاصطناعي”. بعد سبع سنوات ، ألهمت مبادرة الحكومة اليابانية اليابانية الحكومة والصناعة لتقديم مشاريع ذكاء اصطناعي بمليارات الدولارات ، ولكن بحلول أواخر الثمانينيات ، أصيب المستثمرون بخيبة أمل بسبب الافتقار إلى الحافز لأجهزة الكمبيوتر (الآلات) وسحبوا تمويلهم مرة أخرى.
ازدهر الاستثمار والاهتمام بالذكاء الاصطناعي في أوائل العقد الأول من القرن الحادي والعشرين ، عندما تم تطبيق التعلم الآلي بنجاح على العديد من المشكلات في الأوساط الأكاديمية والصناعية بفضل الأساليب الجديدة وأجهزة الكمبيوتر القوية ومجموعات البيانات الضخمة.
التعلم العميق والبيانات الضخمة والذكاء العام الاصطناعي: 2011 حتى الآن
في العقود الأولى من القرن الحادي والعشرين ، تم تطبيق الوصول إلى كميات كبيرة من البيانات (المعروفة باسم “البيانات الضخمة”) وأجهزة الكمبيوتر الأرخص والأسرع وتقنيات التعلم الآلي المتقدمة بنجاح على العديد من المشكلات في جميع الأنظمة الاقتصادية. في الواقع ، يقدر معهد ماكينزي العالمي في مقالته الشهيرة “البيانات الضخمة: الحدود التالية في الابتكار والمنافسة والإنتاجية” أنه بحلول عام 2009 ، سيكون متوسط ما لا يقل عن 200 تيرابايت في جميع قطاعات الاقتصاد الأمريكي تقريبًا من البيانات المخزنة “.
بحلول عام 2016 ، تجاوز سوق المنتجات والأجهزة والبرامج المتعلقة بالذكاء الاصطناعي 8 مليارات دولار ، وذكرت صحيفة نيويورك تايمز أن الاهتمام بالذكاء الاصطناعي كان “مجنونًا”. كما بدأت تطبيقات البيانات الضخمة في التوسع في مجالات أخرى ، مثل نماذج التدريب في علم البيئة والتطبيقات المختلفة في الاقتصاد. أدت التطورات في التعلم العميق (خاصة الشبكات العصبية التلافيفية العميقة والشبكات العصبية المتكررة) إلى حدوث تقدم وأبحاث في معالجة الصور والفيديو ، وتحليل النص ، وحتى التعرف على الكلام.
تعلم عميق
التعلم العميق هو فرع من فروع التعلم الآلي الذي يستخدم الرسوم البيانية العميقة مع مستويات معالجة متعددة لوصف النماذج المجردة عالية المستوى في البيانات. وفقًا لنظرية التقريب العامة ، لا تحتاج الشبكات العصبية إلى عمق لتقريب الوظائف العشوائية المستمرة. ومع ذلك ، تساعد الشبكات العميقة في تجنب العديد من المشكلات الشائعة للشبكات السطحية مثل المطابقة. وبالتالي ، فإن الشبكات العصبية العميقة قادرة على توليد نماذج أكثر تعقيدًا بشكل واقعي من نظيراتها السطحية.
ومع ذلك ، فإن التعلم العميق له مشاكله الخاصة. مشكلة شائعة في الشبكات العصبية المتكررة هي مشكلة التدرج اللوني ، حيث يتقلص التدرج بين الطبقات تدريجياً ويختفي عند تقريبه إلى الصفر. هناك عدة طرق لحل هذه المشكلة ، مثل وحدات الذاكرة طويلة المدى وقصيرة المدى.
يمكن أن تنافس معماريات الشبكات العصبية العميقة المتطورة أحيانًا الدقة البشرية في مجالات مثل التصور الحاسوبي ، خاصة في مناطق مثل قاعدة بيانات MNIST والتعرف على إشارات المرور.
يمكن لمحركات معالجة اللغة التي تعمل بمحركات البحث الذكية أن تتغلب بسهولة على البشر في الإجابة على الأسئلة العامة الغبية (مثل نظام الكمبيوتر IBM Watson) ، بينما حققت التطورات الحديثة في التعلم العميق نتائج مذهلة في التنافس مع البشر ، مثل Go and Doom. (إنها لعبة فازت بإطلاق النار من منظور الشخص الأول ، مما تسبب في بعض الجدل).
البيانات الكبيرة
تشير البيانات الضخمة إلى مجموعة من البيانات التي لا يمكن التقاطها وإدارتها ومعالجتها بواسطة أدوات البرامج التقليدية ضمن إطار زمني معين. هذا هو الكثير من قدرات صنع القرار والبصيرة وتحسين العمليات التي تتطلب نماذج معالجة جديدة. في عصر البيانات الضخمة بقلم فيكتور ماير شوينبيرج وكينيث كوك ، كانت البيانات الضخمة تعني أن جميع البيانات استخدمت للتحليل ، وليس التحليل العشوائي (باستخدام عينات المسح). خصائص البيانات الضخمة (5Vs) (على النحو الذي اقترحته شركة IBM): الحجم والسرعة والتنوع والقيمة والدقة. لا تكمن الأهمية الإستراتيجية لتكنولوجيا البيانات الضخمة في إتقان معلومات البيانات الضخمة ، ولكن في التخصص في هذه البيانات المهمة. بعبارة أخرى ، إذا ما قورنت البيانات الضخمة بصناعة ما ، فإن مفتاح تحقيق الأرباح في هذه الصناعة يكمن في تحسين “قوة معالجة” البيانات وتحقيق “القيمة المضافة” للبيانات من خلال “المعالجة”.
الذكاء الاصطناعي العام
الذكاء الاصطناعي هو فرع من فروع علوم الكمبيوتر يحاول فهم طبيعة الذكاء وإنتاج نوع جديد من الآلات الذكية التي تستجيب بطريقة مشابهة للذكاء البشري. يشمل البحث في هذا المجال الروبوتات والتعرف على الكلام والتعرف على الصور ومعالجة اللغة الطبيعية والأنظمة الخبيرة. منذ ولادة الذكاء الاصطناعي ، أصبحت النظرية والتكنولوجيا أكثر نضجًا ، واستمر مجال التطبيق في التوسع. من المتوقع أن تكون المنتجات التكنولوجية التي يجلبها الذكاء الاصطناعي في المستقبل هي “حاويات” المعرفة البشرية. يمكن للذكاء الاصطناعي محاكاة عمليات المعلومات للوعي والتفكير البشري. الذكاء الاصطناعي ليس ذكاءً بشريًا ، ولكنه يمكن أن يكون مشابهًا للتفكير البشري ويمكن أن يتفوق على الذكاء البشري. يُعرف AGI أيضًا باسم “الذكاء الاصطناعي القوي” أو “الذكاء الاصطناعي الكامل” أو قدرة الآلات على تحقيق “أداء الذكاء العام”. تؤكد المصادر الأكاديمية أن “الذكاء الاصطناعي القوي” يشير إلى الآلات التي يمكن أن تشعر بالوعي