تاريخ الشبكات العصبية الاصطناعية

من ويكيبيديا، الموسوعة الحرة
اذهب إلى التنقل اذهب إلى البحث

تعد الشبكات العصبية الاصطناعية (ANNs) نماذج تم إنشاؤها باستخدام التعلم الآلي لأداء عدد من المهام. كان إنشاؤها مستوحىً من الدوائر العصبية. [1][2] في حين أن بعض التنفيذات الحسابية للشبكات العصبية الاصطناعية تشير إلى اكتشافات سابقة في الرياضيات، كان التنفيذ الأول للشبكات العصبية الاصطناعية من قبل عالم النفس فرانك روزنبلات، الذي طور بيرسيبترون. [2] تم إجراء القليل من الأبحاث على الشبكات العصبية الاصطناعية في السبعينيات والثمانينيات، مع تسمية جمعية النهوض بالذكاء الاصطناعي لتلك الفترة بـ "شتاء الذكاء الاصطناعي".[3][2]

في وقت لاحق، أدّت التّطوّرات في الأجهزة وتطوير خوارزمية الانتشار العكسيّ، بالإضافة إلى الشّبكات العصبية المتكرّرة والشّبكات العصبية التلافيفية، إلى تجديد الاهتمام بـ الشّبكات العصبية الاصطناعية. شهد العقد الأوّل من القرن الحادي والعشرين تطوير شبكة عصبية عميقة (شبكة عصبية ذات طبقات عديدة) تسمّى ألكسنت.[4] تفوّقت بشكل كبير على نماذج التعرّف على الصّور الأخرى، ويعتقد أنّها أطلقت ربيع الذّكاء الاصطناعيّ المستمرّ، وزادت من الاهتمام بالشّبكات العصبية الاصطناعية. [5] تمّ وصف بنية المحوّل لأوّل مرّة في عام 2017 كطريقة لتعليم الشّبكات العصبية الاصطناعية التبعيات النحوية في اللّغة، [6] وهي البنية السائدة في نماذج اللّغة الكبيرة، مثل جي بي تي-4. وُصفت نماذج الانتشار لأوّل مرّة في عام 2015، وبدأت نماذج توليد الصّور مثل دال-إي باستخدامها في العقد الثّاني من القرن الحادي والعشرين. [بحاجة لمصدر]

المُدرِكات العصبية والشبكات العصبية المبكرة الأخرى

[عدل]

الانتشار العكسي

[عدل]

هندسة الشبكات المتكررة

[عدل]

LSTM

[عدل]

الشبكات العصبية التلافيفية (CNNs)

[عدل]

التعلم العميق

[عدل]

الشبكات التنافسية التوليدية

[عدل]

آلية الانتباه والمحول

[عدل]

الاهتمام المتكرر

[عدل]

محول

[عدل]

التعلم بدون إشراف والتعلم الذاتي الإشراف

[عدل]

خرائط ذاتية التنظيم

[عدل]

آلات بولتزمان

[عدل]

التعلم العميق

[عدل]

جوانب أخرى

[عدل]

تقطير المعرفة

[عدل]

التصميمات القائمة على الأجهزة

[عدل]

ملحوظات

[عدل]

روابط خارجية

[عدل]
  • "Lecun 2019-7-11 ACM Tech Talk". Google Docs. اطلع عليه بتاريخ 2020-02-13.

مراجع

[عدل]
  1. ^ Rosenblatt، F. (1958). "The Perceptron: A Probabilistic Model For Information Storage And Organization In The Brain". Psychological Review. ج. 65 ع. 6: 386–408. CiteSeerX:10.1.1.588.3775. DOI:10.1037/h0042519. PMID:13602029. S2CID:12781225.
  2. ^ ا ب ج Rosenblatt، F. (1958). "The Perceptron: A Probabilistic Model For Information Storage And Organization In The Brain". Psychological Review. ج. 65 ع. 6: 386–408. CiteSeerX:10.1.1.588.3775. DOI:10.1037/h0042519. PMID:13602029. S2CID:12781225. مؤرشف من الأصل في 2024-10-08. اطلع عليه بتاريخ 2024-10-08.
  3. ^ Crevier، Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: BasicBooks. ISBN:0-465-02997-3.
  4. ^ Krizhevsky، Alex؛ Sutskever، Ilya؛ Hinton، Geoffrey E. (24 مايو 2017). "ImageNet classification with deep convolutional neural networks" (PDF). Communications of the ACM. ج. 60 ع. 6: 84–90. DOI:10.1145/3065386. ISSN:0001-0782. S2CID:195908774. مؤرشف من الأصل (pdf) في 2024-10-12. اطلع عليه بتاريخ 2024-10-08.
  5. ^ Gershgorn، Dave (26 يوليو 2017). "The data that transformed AI research—and possibly the world". Quartz. مؤرشف من الأصل في 2017-08-20. اطلع عليه بتاريخ 2024-10-08.
  6. ^ Vaswani، Ashish؛ Shazeer، Noam؛ Parmar، Niki؛ Uszkoreit، Jakob؛ Jones، Llion؛ Gomez، Aidan N؛ Kaiser، Łukasz؛ Polosukhin، Illia (2017). "Attention is All you Need" (PDF). Advances in Neural Information Processing Systems. Curran Associates, Inc. ج. 30. مؤرشف من الأصل (pdf) في 2024-02-21. اطلع عليه بتاريخ 2024-10-08.