أحدث المقالات

10 عادات بسيطة تساعد في تقوية الذاكرة

عندما تسأل أصحاب الأعمال عن أكبر مخاوفهم، عادة ما تتلقى ردودًا مثل: “الخوف من الفشل في العمل”، “الخوف من عدم القدرة على دعم الأسرة بشكل فعال”، و”الخوف من مواجهة تحديات الشيخوخة، مثل فقدان الذاكرة”. بينما يرتبط الأمران الأولان أكثر بالقرارات والمواقف الشخصية، يمكن دراسة الأمر الثالث، وهو الخوف من تدهور الذاكرة، من الناحية العلمية وتقديم […]

جولانج أم بايثون – أي لغة برمجة أفضل لتعلم البرمجة والتعامل مع المشاريع؟

في عالم البرمجة تعتبر “Python” و”Golang” من أكثر اللغات تميزاً وأسهلها، ولكل منهما مجموعة من نقاط القوة والضعف. أصبحت لغة بايثون تحظى بشعبية كبيرة بسبب تركيبها السهل والعديد من التطبيقات. ومن ناحية أخرى، لدينا لغة “Golang” أو “Go” التي تمنحك البساطة والأداء العالي في نفس الوقت، وتعتبر لغة مثالية للتعامل مع المهام الموازية. سواء كنت […]

ما هو الخطأ؟ طرق تصحيح الأخطاء او مايسمى بال bugs للمبرمجين.

تعتبر كلمة Bug من أكثر الكلمات استخداماً في مجال البرمجيات؛ لكنها ليست كلمة لطيفة! يتم وصف الأخطاء على أنها مشكلات تغير سلوك البرنامج بشكل غير مرغوب فيه أو تعطي مخرجات لم يتوقعها المستخدم ولا المطور. يمكن أن يكون للأخطاء تأثير واسع النطاق على أداء المنتج، بدءاً من المشكلات البسيطة التي يمكن تجاهلها وحتى المشكلات الكبرى […]

الأكثر مشاهدة

10 عادات بسيطة تساعد في تقوية الذاكرة

عندما تسأل أصحاب الأعمال عن أكبر مخاوفهم، عادة ما تتلقى ردودًا مثل: “الخوف من الفشل في العمل”، “الخوف من عدم القدرة على دعم الأسرة بشكل فعال”، و”الخوف من مواجهة تحديات الشيخوخة، مثل فقدان الذاكرة”. بينما يرتبط الأمران الأولان أكثر بالقرارات والمواقف الشخصية، يمكن دراسة الأمر الثالث، وهو الخوف من تدهور الذاكرة، من الناحية العلمية وتقديم […]

تاريخ تعلّم الآلة

خوارزميات التعلم الآلي قادرة على القيام بأشياء مذهلة، بدءًا من التفوق في ألعاب الطاولة والتعرف على الوجوه، وصولًا إلى أتمتة المهام اليومية والتنبؤات واتخاذ القرارات. ولكن من الصعب تصديق أن تطور هذه التقنية بدأ قبل أقل من قرن. من المستحيل تحديد وقت دقيق لبداية تاريخ التعلم الآلي، وبدلاً من ذلك، يمكن اعتبار التعلم الآلي مزيجًا […]

الدخول إلى عالم البرمجة: دخول إلى عالم الإبداع والإمكانيات التي لا نهاية لها

يعد عالم البرمجة أحد أكثر مجالات التكنولوجيا روعة وشغفاً والتي تتسارع دائماً مع الابتكار والتقدم. البرمجة تعني إنشاء وتصميم وبناء البرامج والبرمجيات التي تتيح لنا التعرف على الإنجازات التكنولوجية والدخول إلى عالم جديد. وفي هذا المقال سنتحدث عن دخول عالم البرمجة وكيفية الاستفادة من هذه الفرصة الفريدة. بداية المغامرة عندما تقرر دخول عالم البرمجة، فأنت […]

تاريخ تعلّم الآلة

خوارزميات التعلم الآلي قادرة على القيام بأشياء مذهلة، بدءًا من التفوق في ألعاب الطاولة والتعرف على الوجوه، وصولًا إلى أتمتة المهام اليومية والتنبؤات واتخاذ القرارات. ولكن من الصعب تصديق أن تطور هذه التقنية بدأ قبل أقل من قرن. من المستحيل تحديد وقت دقيق لبداية تاريخ التعلم الآلي، وبدلاً من ذلك، يمكن اعتبار التعلم الآلي مزيجًا من جهود العديد من الأفراد الذين ساهموا باختراعاتهم، خوارزمياتهم، أو إنجازاتهم في تطويره وتشكيله.

فيما يلي، حاولنا تقديم نبذة مختصرة عن تاريخ تعلّم الآلة والأشخاص الذين ساهموا في تطويره، بالإضافة إلى استعراض الأحداث المهمة في تاريخ التعلم الآلي.

تاريخ تعلّم الآلة

1943

تاريخ التعلم الآلي بدأ مع أول نموذج رياضي للشبكات العصبية الذي تم تقديمه في المقالة العلمية “حساب منطقي للأفكار الكامنة في النشاط العصبي” من قبل والتر بيتس ووارن مكولوتش. حيث قدما نموذجًا رياضيًا للعصب البيولوجي، وصوّرا كل عصبون في الدماغ على أنه معالج رقمي بسيط، واعتبرا الدماغ كآلة حسابية كاملة. كان لهذا النموذج قدرة محدودة للغاية ولم يكن لديه أي آلية للتعلم، ولكنه أسس لظهور الشبكة العصبية الاصطناعية والتعلم العميق.

1949

في عام 1949، نشر دونالد هيب كتابًا بعنوان “تنظيم السلوك”. قدم هذا الكتاب نظريات حول كيفية ارتباط السلوك بنشاط الدماغ والشبكات العصبية، وأصبح أحد الأسس لتطوير التعلم الآلي.

1950

في عام 1950، قدم آلان تورينغ، عالم الرياضيات وعالم الكمبيوتر، اختبار تورينغ. في هذا الاختبار، يعتبر النظام ذكيًا بما يكفي إذا استطاع الإجابة على أسئلة أحد الحكام بطريقة تقنعه أن الشخص الذي يجيب هو إنسان وليس آلة. من المثير للاهتمام أن هذا الاختبار لا يزال يُعتبر تحديًا كبيرًا حتى اليوم.

1951

في عام 1951، عندما كانت معظم أجهزة الكمبيوتر لا تزال تستخدم البطاقات المثقوبة للتشغيل، قام مارفن مينسكي ودين إدموندز ببناء أول شبكة عصبية اصطناعية تُسمى SNARC، والتي كانت تتألف من 40 تشابكًا عصبيًا من نوع “هَب” (تم تعريف هذه التشابكات في الكتاب الذي كتبه دونالد هيب في عام 1949) وكانت مرتبطة بذاكرة قصيرة المدى.

1952

في عام 1952، قام آرثر صموئيل في شركة IBM بتطوير برنامج للعبة الداما (Checkers) على مستوى بطولة، والذي استخدم تقنية تقليم ألفا-بيتا (Alpha-Beta Pruning) لقياس احتمالية الفوز بدلاً من البحث في جميع المسارات الممكنة. اعتمد على فرضية أن الخصم يلعب بشكل مثالي، واستخدم خوارزمية minimax لإيجاد الحركة الأمثل. بالإضافة إلى ذلك، صمم آليات لتحسين البرنامج بشكل مستمر، مثل مقارنة الحركات السابقة بفرص الفوز.

1956

في عام 1956، يُعتبر المشروع البحثي الصيفي في كلية دارتموث بمثابة المهد الذي انطلقت منه فكرة الذكاء الاصطناعي. قام جون مكارثي بدعوة أحد عشر شخصًا من كبار الرياضيين والباحثين والعلماء في مجالات الرياضيات والهندسة وعلوم الكمبيوتر والعلوم المعرفية إلى كلية دارتموث للتفكير في إمكانية إنشاء آلات قادرة على التفكير، وذلك خلال فترة استمرت حوالي ستة إلى ثمانية أسابيع.

1958

في عام 1958، حاول فرانك روزنبلات تصميم أول شبكة عصبية حاسوبية تُسمى “Perceptron”. كان “Perceptron” يمتلك القدرة على التعلم الذاتي لتنفيذ التصنيف الثنائي بشكل مستقل، وتم تصميمه لاستقبال المدخلات وإنشاء مخرجات مثل التسميات والتصنيفات.

1963

Donald Michie با 304 جعبه چوب کبریت توانست برنامه‌ای توسعه دهد که این قابلیت را داشت که بازی tic-tac-toe (بازی دوز) را بیاموزد.

1965

في عام 1965، قام أليكسي إيفاخنينكو وفالنتين لابا بتطوير تمثيل هرمي للشبكة العصبية، والذي يُعتبر أول “Perceptron” متعدد الطبقات. استخدم هذا النموذج دالة تنشيط غير خطية وتم تدريبه باستخدام طريقة النمذجة الجماعية للبيانات.

1967

في عام 1967، نشر توماس كوفر وبيتر إي. هارت مقالة في مجلة IEEE Transactions on Information Theory حول خوارزمية “أقرب جار” (Nearest Neighbor Algorithm). تتيح هذه الخوارزمية لأجهزة الكمبيوتر استخدام تقنيات بدائية للتعرف على الأنماط. عند إعطاء البرنامج عينة جديدة، يقوم بمقارنتها بالبيانات الموجودة ويصنفها بناءً على أقرب جار لها، أي العينة الأكثر تشابهًا المخزنة في الذاكرة.


1980

في عام 1980، نشر كونيهكو فوكوشيما، عالم الكمبيوتر الياباني، عمله حول “Neocognitron”. وهي شبكة عصبية اصطناعية هرمية متعددة الطبقات صُممت للتعرف على الأنماط، مثل التعرف على الحروف المكتوبة بخط اليد. أدى هذا العمل إلى تطوير الشبكات العصبية التلافيفية (Convolutional Neural Networks) التي تُستخدم اليوم في تحليل الصور.

1979

في عام 1979، قام طلاب جامعة ستانفورد بتطوير “Stanford Cart”، وهو روبوت يتم التحكم فيه عن بُعد. كان هذا الروبوت قادرًا على التحرك بشكل مستقل في الفضاء من خلال رسم الخرائط ثلاثية الأبعاد والملاحة، وكان يمكنه تجاوز العقبات بمفرده.

1986

في عام 1986، قام تيرينس سجنوسكي بإنشاء NETtalk، وهي شبكة عصبية جمعت بين معرفته في علم الأحياء والشبكات العصبية. كانت هذه الشبكة العصبية قادرة على تعلم كيفية نطق الكلمات الإنجليزية عن طريق المطابقة والمقارنة مع النسخ الصوتية.

1986

في عام 1986، قدم بول سمولينسكي آلة بولتزمان المقيدة (Restricted Boltzmann Machine)، التي كانت قادرة على تحليل مجموعة من المدخلات وتعلم التوزيع الاحتمالي منها. يُستخدم هذا الخوارزم في نمذجة الموضوعات – على سبيل المثال، تحديد الموضوعات المحتملة لمقال بناءً على أكثر الكلمات شيوعًا فيه – أو في التوصيات المستندة إلى الذكاء الاصطناعي.

1990

في عام 1990، قدم روبرت شابير في مقالته بعنوان “قوة التعلم الضعيف” خوارزمية “Boosting”، وهي خوارزمية تهدف إلى تعزيز قدرة التنبؤ لنموذج الذكاء الاصطناعي. بدلاً من استخدام نموذج قوي واحد، يقوم “Boosting” بإنشاء العديد من النماذج الضعيفة، ويحولها إلى نماذج أقوى من خلال دمج التنبؤات معًا.

1995

في عام 1995، نشر تين كام هو، وهو عالم حاسوب يعمل لدى IBM، مقالة مؤثرة حول “غابات القرارات العشوائية” (Random Decision Forests)، وهي طريقة للتعلم الجماعي. يقوم هذا الخوارزم بإنشاء عدة أشجار قرارات ودمجها في “غابة”. من خلال استخدام عدة أشجار قرارات مختلفة، تتحسن دقة النموذج وقدرته على اتخاذ القرارات بشكل ملحوظ.

1997

في عام 1997، صنع التاريخ برنامج الشطرنج الحاسوبي “Deep Blue” الذي تم تطويره بواسطة شركة IBM، بعد أن هزم بطل العالم في الشطرنج آنذاك، غاري كاسباروف. فاز كاسباروف في المباراتين الأوليين، ثم خسر في ثلاث مباريات تالية، وتعادل في المباراة النهائية.

2006

في عام 2006، قام جيفري هينتون وزملاؤه في مقالة بعنوان “خوارزمية تعلم سريعة للشبكات العميقة المعتقدة” بوضع مصطلح “التعلم العميق” (Deep Learning) لوصف الخوارزميات التي تساعد أجهزة الكمبيوتر على التعرف على أنواع مختلفة من الأشياء والأحرف النصية في الصور ومقاطع الفيديو.

2009

في عام 2009، تم إطلاق قاعدة بيانات ضخمة من الصور المُعَلَّمة تُسمى “ImageNet” بواسطة فاي فاي لي. كانت تهدف إلى توسيع البيانات المتاحة لتدريب الخوارزميات، لأنها كانت تؤمن بأن الذكاء الاصطناعي وتعلم الآلة يحتاجان إلى بيانات تدريبية جيدة ليصبحا فعّالين وذوي فائدة حقيقية.

2012

في عام 2012، قام فريق مختبر X في شركة جوجل، بناءً على خلفية واسعة في تعلم الآلة، بإنشاء شبكة عصبية تُسمى “Google Brain”. اشتهرت هذه الشبكة بقدرتها العالية على معالجة الصور، حيث كانت قادرة على التعرف بدقة على القطط ووجوه وأجساد البشر في الصور.

2014

في عام 2014، قام فريق البحث في فيسبوك بتطوير “DeepFace”، وهو نظام للتعرف على الوجوه قائم على التعلم العميق. كانت هذه الشبكة العصبية مكونة من 9 طبقات وتم تدريبها باستخدام 4 ملايين صورة من مستخدمي فيسبوك. كان “DeepFace” قادرًا على التعرف على الوجوه في الصور بنفس دقة البشر تقريبًا (حوالي 97.35٪).

2016

في عام 2016، هزم “AlphaGo” لي سيدول، لاعب الـ Go المحترف، بنتيجة أربعة مقابل واحد في لعبة Go، التي تُعتبر واحدة من أكثر الألعاب اللوحية تعقيدًا. أكد اللاعبون المحترفون أن هذا الخوارزم كان قادرًا على القيام بحركات إبداعية لم يروها من قبل.

في عام 2016، قدم مجموعة من العلماء برنامج “Face2Face” في مؤتمر الرؤية الحاسوبية والتعرف على الأنماط. كان “Face2Face” قادرًا على تعديل الفيديوهات في الوقت الفعلي، واستبدال حركات وجه شخص بحركات وجه شخص آخر، بحيث يبدو وكأن الشخص في الفيديو يقول شيئًا لم يقله في الواقع. تشكل المنطق والخوارزميات الخاصة بـ “Face2Face” الأساس لمعظم برامج الـ “Deepfake” المستخدمة اليوم.

2017

في عام 2017، بدأت شركة “Waymo” باختبار السيارات ذاتية القيادة في الولايات المتحدة، وفي وقت لاحق من نفس العام أطلقت أول خدمة نقل تجاري ذاتي القيادة في العالم بمدينة فينيكس تحت اسم “Waymo One”.

2020 وما بعد 

في عام 2020، قدم فيسبوك التعلم القائم على المعتقد العودي أو ReBeL؛ خوارزمية لديها القدرة على العمل في جميع الألعاب ذات المحصلة الصفرية للاعبين وحتى الألعاب ذات المعلومات غير الكاملة. قدمت  Deepmind أيضًا خوارزمية Player of Games في عام 2021.

حقق AlphaFold، الذي طورته شركة جوجل، مستوى عاليًا جدًا من الدقة في التنبؤ ببنية البروتينات في عام 2021. كما نشرت جوجل ورقة بحثية بعنوان Switch Transformers في عام 2022، حيث قدمت تقنية تعتمد على خوارزمية معدلة لتدريب نماذج اللغة بأكثر من تريليون معلمة.


هناك عدد لا يحصى من الباحثين الذين ساهمت إنجازاتهم بشكل مباشر أو غير مباشر في ظهور وازدهار التعلم الآلي. حاولت هذه المقالة فقط سرد تاريخ موجز تعلّم الآلة من خلال مراجعة بعض المقالات والأحداث الرئيسية.