Sigmoid ReLU-dan daha yaxşıdır?
Sigmoid ReLU-dan daha yaxşıdır?

Video: Sigmoid ReLU-dan daha yaxşıdır?

Video: Sigmoid ReLU-dan daha yaxşıdır?
Video: Neural Networks Pt. 3: ReLU In Action!!! 2024, Noyabr
Anonim

Relu : Hesablamaq üçün hesablama baxımından daha səmərəlidir Sigmoiddən daha çox funksiyaları kimi Relu sadəcə mövzu max (0, x) lazımdır və Sigmoids kimi bahalı eksponensial əməliyyatlar yerinə yetirməyin. Relu : Təcrübədə, ilə şəbəkələr Relu göstərməyə meyllidirlər daha yaxşı konvergensiya performansı daha sigmoid.

Eynilə soruşa bilər ki, niyə ReLU ən yaxşı aktivləşdirmə funksiyasıdır?

Əsas fikir, gradientin sıfırdan fərqli olmasına icazə vermək və nəticədə məşq zamanı bərpa etməkdir. ReLu tanh və ilə müqayisədə daha az hesablama bahalıdır sigmoid çünki daha sadə riyazi əməliyyatları əhatə edir. Yəni a yaxşı dərin neyron şəbəkələri dizayn edərkən nəzərə alınmalı olan məqam.

Bir də soruşa bilərsiniz, sigmoid aktivləşdirmə funksiyası nədir? The sigmoid funksiyası a aktivləşdirmə funksiyası Neyron Şəbəkələrində Neyronların atəşə tutulması ilə əlaqəli şəkildə qurulmuş əsas qapı baxımından. Törəmə, həmçinin a tobe fəaliyyət göstərir aktivləşdirmə funksiyası Neyronla işləmək baxımından aktivləşdirmə NN baxımından. İkisi arasındakı fərq budur aktivləşdirmə dərəcə və qarşılıqlı əlaqə.

Eynilə, biz niyə CNN-də ReLU-dan istifadə edirik?

Konvolyusiya neyron şəbəkələri ( CNN ): Addım 1(b) - ReLU Qat. Düzəldilmiş Xətti Vahid və ya ReLU , edir konvolyusiya neyron şəbəkələri prosesinin ayrıca komponenti deyil. Düzəldici funksiyanın tətbiqinin məqsədi edir şəkillərimizdə qeyri-xəttiliyi artırmaq üçün.

ReLU-nun istifadəsi nədir?

ReLU (Düzeltilmiş Xətti Vahid) AktivləşdirməFunksiya ReLU ən çox istifadə olunur hazırda dünyada aktivasiya funksiyası. O vaxtdan belədir istifadə olunur demək olar ki, bütün konvolyusiya neyron şəbəkələrində və ya dərin öyrənmədə.

Tövsiyə: