Telegram Group & Telegram Channel
🤖 AlexNet: butun AI tarixini o'zgartirgan model

Avvalgi postlarimdan birida ResNet haqida gaplashgandik: bu neyron tarmoqlarni chuqurroq qilishga yordam beradigan usul edi. Bugun esa AI tarixida Computer Vision (CV) yo'nalishida revolyutsiya qilgan model haqida gaplashamiz, ya'ni AlexNet haqida.

Hozir hamma AI modellar aksariyati neyron tarmoqlariga asoslangan arxitekturalar ustiga qurilgan. Ko'proq ma'lumot bersangiz, kuchliroq ishlaydi. Lekin, 1990-2010 yillar orasida neyron tarmoqlari boshqa Machine Learning (ML) algoritmlaridan yaxshiroq emas edi 🤧, masalan kernel regression, SVM, AdaBoost, va hokazo. Xususan, CV uchun olimlar ko'pincha qo'lda features tayyorlashar edi: SIFT, SURF, HoG va shunga o'xshash. Feature'larni to'g'ridan to'g'ri avtomatik ravishda ma'lumotdan o'rganish g'oyasi uncha tadqiqotchilar jamiyati orasida keng tarqalmagan edi.

2011-yilda Geoffrey Hinton (menimcha kimligini yaxshi bilsangiz kerak) o'z hamkasblariga shunday murojat bilan chiqdi: "Sizlarni neyron tarmoqlari kelajak ekaniga ishontirishim uchun nima qilishim kerak". Shunda uning tanishlaridan biri ImageNet deb nomlangan rasmlar to'plamini tavsiya qiladi.

📸 ImageNet Stanford Professori Fei-Fei Li boshchiligida 2007-yildan boshlab 14 mln'dan ortiq rasm yig'ib kelar edi, va 22 mingta kategoriyalarga tartiblagan, va bu dataset neyron tarmoqga asoslangan CV modellarni o'rgatishga juda zo'r massiv dataset bo'lgan.

Ilya Sutskever (OpenAI asoschilaridan biri) va Alex Krijevskiy (AlexNet'ning muallifi) Geoffrey Hinton qo'l ostida PhD studentlar bo'lib o'qishar edi. Krijevskiy kichik modellarni CIFAR-10 dataset'ida o'qitish uchun cuda-convnet kutubhonasini yozgan edi. Sutskever Alex'ning GPU programming bo'yicha kuchliligini bilib, uni ImageNet yourdamida kattaroq model o'qitishga ishontiradi. Shunday qilib, Krijevskiy ko'p GPU mashg'ulotlari uchun `cuda-convnet`-ni kengaytiradi. AlexNet 2 ta Nvidia GTX 580 da o'zining ota-onasining uyidagi yotoqxonasida o'qitilgan.

2012 yil davomida Krijevskiy tarmoqda giperparametrlarni optimallashtirishni amalga oshiradi, va u o'sha yilning oxirida ImageNet tanlovida g'olib chiqadi. Hinton shunday izoh beradi: "Ilya biz buni qilishimiz kerak deb o'yladi, Alex buni amalga oshirdi va men Nobel mukofotini oldim".😊

2012-yilda CV bo'yicha ECCV konferentsiyasida AlexNet g'alabasidan so'ng tadqiqotchi Yann LeKun modelni “bu CV tarixidagi aniq burilish nuqtasi” deb ta'riflaydi.🤩

AlexNetning 2012-yildagi muvaffaqiyati oldingi o'n yil ichida yetuk bo'lgan uchta narsani birlashgani bilan amalga oshdi:
1. Katta miqyosdagi ma'lumotlar to'plamlari
2. Umumiy maqsadli GPU hisoblashlari (GPGPU), ya'ni Nvidia CUDA tehnologiyasi.
3. Chuqur neyron tarmoqlar uchun takomillashtirilgan o'qitish usullari.

O'n yildan ko'proq vaqt o'tgach, uning ahamiyati haqida fikr yuritar ekan, Fei-Fei Li 2024-yildagi intervyusida shunday deydi: "O'sha lahza sun'iy intellekt dunyosi uchun juda ramziy edi, chunki zamonaviy AI'ning uchta asosiy elementi birinchi marta birlashgan". 🥳

@kilich_bek_blog
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/Conordevs_Blogs/332
Create:
Last Update:

🤖 AlexNet: butun AI tarixini o'zgartirgan model

Avvalgi postlarimdan birida ResNet haqida gaplashgandik: bu neyron tarmoqlarni chuqurroq qilishga yordam beradigan usul edi. Bugun esa AI tarixida Computer Vision (CV) yo'nalishida revolyutsiya qilgan model haqida gaplashamiz, ya'ni AlexNet haqida.

Hozir hamma AI modellar aksariyati neyron tarmoqlariga asoslangan arxitekturalar ustiga qurilgan. Ko'proq ma'lumot bersangiz, kuchliroq ishlaydi. Lekin, 1990-2010 yillar orasida neyron tarmoqlari boshqa Machine Learning (ML) algoritmlaridan yaxshiroq emas edi 🤧, masalan kernel regression, SVM, AdaBoost, va hokazo. Xususan, CV uchun olimlar ko'pincha qo'lda features tayyorlashar edi: SIFT, SURF, HoG va shunga o'xshash. Feature'larni to'g'ridan to'g'ri avtomatik ravishda ma'lumotdan o'rganish g'oyasi uncha tadqiqotchilar jamiyati orasida keng tarqalmagan edi.

2011-yilda Geoffrey Hinton (menimcha kimligini yaxshi bilsangiz kerak) o'z hamkasblariga shunday murojat bilan chiqdi: "Sizlarni neyron tarmoqlari kelajak ekaniga ishontirishim uchun nima qilishim kerak". Shunda uning tanishlaridan biri ImageNet deb nomlangan rasmlar to'plamini tavsiya qiladi.

📸 ImageNet Stanford Professori Fei-Fei Li boshchiligida 2007-yildan boshlab 14 mln'dan ortiq rasm yig'ib kelar edi, va 22 mingta kategoriyalarga tartiblagan, va bu dataset neyron tarmoqga asoslangan CV modellarni o'rgatishga juda zo'r massiv dataset bo'lgan.

Ilya Sutskever (OpenAI asoschilaridan biri) va Alex Krijevskiy (AlexNet'ning muallifi) Geoffrey Hinton qo'l ostida PhD studentlar bo'lib o'qishar edi. Krijevskiy kichik modellarni CIFAR-10 dataset'ida o'qitish uchun cuda-convnet kutubhonasini yozgan edi. Sutskever Alex'ning GPU programming bo'yicha kuchliligini bilib, uni ImageNet yourdamida kattaroq model o'qitishga ishontiradi. Shunday qilib, Krijevskiy ko'p GPU mashg'ulotlari uchun `cuda-convnet`-ni kengaytiradi. AlexNet 2 ta Nvidia GTX 580 da o'zining ota-onasining uyidagi yotoqxonasida o'qitilgan.

2012 yil davomida Krijevskiy tarmoqda giperparametrlarni optimallashtirishni amalga oshiradi, va u o'sha yilning oxirida ImageNet tanlovida g'olib chiqadi. Hinton shunday izoh beradi: "Ilya biz buni qilishimiz kerak deb o'yladi, Alex buni amalga oshirdi va men Nobel mukofotini oldim".😊

2012-yilda CV bo'yicha ECCV konferentsiyasida AlexNet g'alabasidan so'ng tadqiqotchi Yann LeKun modelni “bu CV tarixidagi aniq burilish nuqtasi” deb ta'riflaydi.🤩

AlexNetning 2012-yildagi muvaffaqiyati oldingi o'n yil ichida yetuk bo'lgan uchta narsani birlashgani bilan amalga oshdi:
1. Katta miqyosdagi ma'lumotlar to'plamlari
2. Umumiy maqsadli GPU hisoblashlari (GPGPU), ya'ni Nvidia CUDA tehnologiyasi.
3. Chuqur neyron tarmoqlar uchun takomillashtirilgan o'qitish usullari.

O'n yildan ko'proq vaqt o'tgach, uning ahamiyati haqida fikr yuritar ekan, Fei-Fei Li 2024-yildagi intervyusida shunday deydi: "O'sha lahza sun'iy intellekt dunyosi uchun juda ramziy edi, chunki zamonaviy AI'ning uchta asosiy elementi birinchi marta birlashgan". 🥳

@kilich_bek_blog

BY Conor's Blogs







Share with your friend now:
tg-me.com/Conordevs_Blogs/332

View MORE
Open in Telegram


Conor& 39;s Blogs Telegram | DID YOU KNOW?

Date: |

The lead from Wall Street offers little clarity as the major averages opened lower on Friday and then bounced back and forth across the unchanged line, finally finishing mixed and little changed.The Dow added 33.18 points or 0.10 percent to finish at 34,798.00, while the NASDAQ eased 4.54 points or 0.03 percent to close at 15,047.70 and the S&P 500 rose 6.50 points or 0.15 percent to end at 4,455.48. For the week, the Dow rose 0.6 percent, the NASDAQ added 0.1 percent and the S&P gained 0.5 percent.The lackluster performance on Wall Street came on uncertainty about the outlook for the markets following recent volatility.

The global forecast for the Asian markets is murky following recent volatility, with crude oil prices providing support in what has been an otherwise tough month. The European markets were down and the U.S. bourses were mixed and flat and the Asian markets figure to split the difference.The TSE finished modestly lower on Friday following losses from the financial shares and property stocks.For the day, the index sank 15.09 points or 0.49 percent to finish at 3,061.35 after trading between 3,057.84 and 3,089.78. Volume was 1.39 billion shares worth 1.30 billion Singapore dollars. There were 285 decliners and 184 gainers.

Conor& 39;s Blogs from us


Telegram Conor's Blogs
FROM USA