📋
docs.binaexperts.com
  • Introduction
  • Get Started
  • Organization
    • Create an Organization
    • Add Team Members
    • Role-Based Access Control
  • Datasets
    • Creating a Project
    • Uploading Data
      • Uploading Video
    • Manage Batches
    • Create a Dataset Version
    • Preprocessing Images
    • Creating Augmented Images
    • Add Tags to Images
    • Manage Categories
    • Export Versions
    • Health Check
    • Merge Projects and Datasets
    • Delete an Image
    • Delete a Project
  • annotate
    • Annotation Tools
    • Use BinaExperts Annotate
  • Train
    • Train
    • Framework
      • Tensorflow
      • PyTorch
      • NVIDIA TAO
      • TFLite
    • Models
      • YOLO
      • CenterNet
      • EfficientNet
      • Faster R-CNN
      • Single Shot Multibox Detector (SSD)
      • DETR
      • DETECTRON2 FASTER RCNN
      • RETINANET
    • dataset healthcheck
      • Distribution of annotations based on their size relative
      • Distribution of annotations based on their size relative
    • TensorBoard
    • Hyperparameters
    • Advanced Hyperparameter
      • YAML
      • Image Size
      • Validation input image size
      • Patience
      • Rectangular training
      • Autoanchor
      • Weighted image
      • multi scale
      • learning rate
      • Momentum
  • Deployment
    • Deployment
      • Legacy
      • Deployment model (Triton)
    • Introducing the BinaExperts SDK
  • ابزارهای نشانه گذاری
  • استفاده از نشانه گذاری بینااکسپرتز
  • 🎓آموزش مدل
  • آموزش
  • چارچوب ها
    • تنسورفلو
    • پایتورچ
    • انویدیا تاو
    • تنسورفلو لایت
  • مدل
    • یولو
    • سنترنت
    • افیشنت نت
    • R-CNN سریعتر
    • SSD
    • DETR
    • DETECTRON2 FASTER RCNN
  • تست سلامت دیتاست
    • توزیع اندازه نسبی
    • رسم نمودار توزیع
  • تنسوربرد
  • ابرمقادیر
  • ابرمقادیر پیشرفته
    • YAML (یامل)
    • اندازه تصویر
    • اعتبار سنجی تصاویر ورودی
    • انتظار
    • آموزش مستطیلی
  • مستندات فارسی
    • معرفی بینااکسپرتز
    • آغاز به کار پلتفرم بینااکسپرتز
  • سازماندهی
    • ایجاد سازمان
    • اضافه کردن عضو
    • کنترل دسترسی مبتنی بر نقش
  • مجموعه داده ها
    • ایجاد یک پروژه
    • بارگذاری داده‌ها
      • بارگذاری ویدیو
    • مدیریت دسته ها
    • ایجاد یک نسخه از مجموعه داده
    • پیش‌پردازش تصاویر
    • ایجاد تصاویر افزایش یافته
    • افزودن تگ به تصاویر
    • مدیریت کلاس‌ها
  • برچسب گذاری
    • Page 3
  • آموزش
    • Page 4
  • استقرار
    • Page 5
Powered by GitBook
On this page

Was this helpful?

ابرمقادیر پیشرفته

انتخاب بین بهینه سازهای Adam و SGD (Stochastic Gradient Descent) بستگی به عوامل مختلفی مانند ماهیت مسئله، مجموعه داده، و معماری شبکه عصبی دارد. در زیر مقایسه ای بین این دو بهینه ساز آورده شده است:

Adam (Adaptive Moment Estimation): Adam یک الگوریتم بهینه سازی نرخ یادگیری تطبیقی است که مزایای هر دو AdaGrad و RMSProp را ترکیب می کند. این نرخ یادگیری جداگانه برای هر پارامتر را حفظ می کند و نرخ یادگیری را بر اساس لحظات اول و دوم گرادیان ها تطبیق می دهد. Adam برای محدوده گسترده ای از وظایف یادگیری عمیق مناسب است و برای همگرایی سریع و مقاومت در برابر گرادیان های نویزی شناخته شده است. این نیاز به تنظیم دستی دقیق تر هایپرپارامترها نسبت به SGD را کاهش می دهد، که باعث می شود برای بسیاری از وظایف آسان تر استفاده شود.

SGD (Stochastic Gradient Descent): SGD

یک الگوریتم بهینه سازی کلاسیک است که پارامترهای مدل را بر اساس گرادیان های تابع خطا نسبت به پارامترها به روز می کند. این برای تمام پارامترها از یک نرخ یادگیری ثابت استفاده می کند و نرخ یادگیری را در طول آموزش تطبیق نمی دهد. SGD می تواند حساس به انتخاب نرخ یادگیری باشد و ممکن است نیاز به تنظیم دستی برای دستیابی به عملکرد خوب داشته باشد. این از نظر محاسباتی کارآمد و حافظه کارآمد است، به خصوص برای مجموعه داده های بزرگ مقیاس، و گاهی اوقات می تواند بهتر از Adam عمومیت یابد.

به طور خلاصه، Adam اغلب گزینه پیش فرض برای وظایف یادگیری عمیق به دلیل مقاومت و سهولت استفاده اش است. با این حال، SGD همچنان می تواند موثر باشد، به خصوص وقتی با دقت تنظیم شده است، و ممکن است در برخی از سناریوها که کارایی محاسباتی یا تعمیم اولویت دارد، ترجیح داده شود. در نهایت، بهترین بهینه ساز بستگی به نیازها و محدودیت های خاص وظیفه در دست دارد، و توصیه می شود که با هر دو بهینه ساز آزمایش کنید تا مشخص شود کدام یک برای مشکل خاصی بهتر کار می کند.

PreviousابرمقادیرNextYAML (یامل)

Last updated 11 months ago

Was this helpful?