کوواریانس‌ها در بینایی کامپیوتر و یادگیری ماشین ۲۰۲۲
Covariances in Computer Vision and Machine Learning 2022

دانلود کتاب کوواریانس‌ها در بینایی کامپیوتر و یادگیری ماشین ۲۰۲۲ (Covariances in Computer Vision and Machine Learning 2022) با لینک مستقیم و فرمت pdf (پی دی اف) و ترجمه فارسی

نویسنده

Hà Quang Minh, Vittorio Murino

voucher (1)

۳۰ هزار تومان تخفیف با کد «OFF30» برای اولین خرید

سال انتشار

2022

زبان

English

تعداد صفحه‌ها

156

نوع فایل

pdf

حجم

2.2 MB

🏷️ قیمت اصلی: 200,000 تومان بود.قیمت فعلی: 129,000 تومان.

🏷️ قیمت اصلی: ۳۷۸٬۰۰۰ تومان بود. قیمت فعلی: ۲۹۸٬۰۰۰ تومان.

📥 دانلود نسخه‌ی اصلی کتاب به زبان انگلیسی(PDF)
🧠 به همراه ترجمه‌ی فارسی با هوش مصنوعی 🔗 مشاهده جزئیات

پیش‌خرید با تحویل فوری(⚡️) | فایل کتاب حداکثر تا ۳۰ دقیقه(🕒) پس از ثبت سفارش آماده دانلود خواهد بود.

دانلود مستقیم PDF

ارسال فایل به ایمیل

پشتیبانی ۲۴ ساعته

توضیحات

معرفی کتاب کوواریانس‌ها در بینایی کامپیوتر و یادگیری ماشین ۲۰۲۲

ماتریس‌های کوواریانس نقش مهمی در بسیاری از زمینه‌های ریاضیات، آمار و یادگیری ماشین و همچنین کاربردهای آن‌ها ایفا می‌کنند. در بینایی کامپیوتر و پردازش تصویر، آن‌ها منجر به یک نمایش داده قدرتمند، یعنی توصیف‌گر کوواریانس، با کاربردهای عملی متعدد می‌شوند.

در این کتاب، ابتدا با ارائه مروری بر رویکرد نمایش {it ماتریس کوواریانس با ابعاد محدود} از تصاویر، همراه با تفسیر آماری آن شروع می‌کنیم. به طور خاص، در مورد فواصل و واگرایی‌های مختلفی که از ساختارهای هندسی ذاتی مجموعه ماتریس‌های معین مثبت متقارن (SPD) ناشی می‌شوند، یعنی ساختارهای منیفولد ریمانی و مخروط محدب، بحث می‌کنیم. از نظر محاسباتی، ما بر روش‌های هسته‌ای روی ماتریس‌های کوواریانس، به ویژه با استفاده از فاصله لگاریتمی-اقلیدسی، تمرکز می‌کنیم.

سپس برخی از آخرین پیشرفت‌ها در تعمیم نمایش ماتریس کوواریانس با ابعاد محدود به نمایش {it عملگر کوواریانس با ابعاد نامحدود} از طریق هسته‌های معین مثبت را نشان می‌دهیم. ما تعمیم متریک ریمانی ناوردا-آفین و متریک لگاریتمی-هیلبرت-اشمیت، که فاصله لگاریتمی-اقلیدسی را تعمیم می‌دهد، ارائه می‌دهیم. از نظر محاسباتی، ما بر روش‌های هسته‌ای روی عملگرهای کوواریانس، به ویژه با استفاده از فاصله لگاریتمی-هیلبرت-اشمیت، تمرکز می‌کنیم. به طور خاص، یک ماشین هسته‌ای دو لایه را با استفاده از فاصله لگاریتمی-هیلبرت-اشمیت و تقریب با ابعاد محدود آن ارائه می‌دهیم، که پیچیدگی محاسباتی فرمول دقیق را کاهش می‌دهد و در عین حال تا حد زیادی قابلیت آن را حفظ می‌کند. تجزیه و تحلیل نظری نشان می‌دهد که از نظر ریاضی، فاصله تقریبی لگاریتمی-هیلبرت-اشمیت باید به ضرب داخلی تقریبی لگاریتمی-هیلبرت-اشمیت ترجیح داده شود و از نظر محاسباتی، باید به فاصله ریمانی ناوردا-آفین تقریبی ترجیح داده شود.

آزمایش‌های عددی بر روی طبقه‌بندی تصاویر، بهبودهای قابل توجهی از فرمول‌بندی با ابعاد نامحدود نسبت به همتای با ابعاد محدود آن نشان می‌دهد. با توجه به کاربردهای متعدد ماتریس‌های کوواریانس در بسیاری از زمینه‌های ریاضیات، آمار و یادگیری ماشین، فقط برای نام بردن چند مورد، انتظار داریم که فرمول‌بندی عملگر کوواریانس با ابعاد نامحدود ارائه شده در اینجا، کاربردهای بسیار بیشتری فراتر از موارد موجود در بینایی کامپیوتر داشته باشد.


فهرست کتاب:

۱. روی جلد

۲. حق تکثیر

۳. صفحه عنوان

۴. فهرست مطالب

۵. تقدیر و تشکر

۶. مقدمه

۷. ماتریس‌های کوواریانس و کاربردها

۸. عملگرهای کوواریانس و کاربردها

توضیحات(انگلیسی)

Covariance matrices play important roles in many areas of mathematics, statistics, and machine learning, as well as their applications. In computer vision and image processing, they give rise to a powerful data representation, namely the covariance descriptor, with numerous practical applications.

In this book, we begin by presenting an overview of the {\it finite-dimensional covariance matrix} representation approach of images, along with its statistical interpretation. In particular, we discuss the various distances and divergences that arise from the intrinsic geometrical structures of the set of Symmetric Positive Definite (SPD) matrices, namely Riemannian manifold and convex cone structures. Computationally, we focus on kernel methods on covariance matrices, especially using the Log-Euclidean distance.

We then show some of the latest developments in the generalization of the finite-dimensional covariance matrix representation to the {\it infinite-dimensional covariance operator} representation via positive definite kernels. We present the generalization of the affine-invariant Riemannian metric and the Log-Hilbert-Schmidt metric, which generalizes the Log-Euclidean distance. Computationally, we focus on kernel methods on covariance operators, especially using the Log-Hilbert-Schmidt distance. Specifically, we present a two-layer kernel machine, using the Log-Hilbert-Schmidt distance and its finite-dimensional approximation, which reduces the computational complexity of the exact formulation while largely preserving its capability. Theoretical analysis shows that, mathematically, the approximate Log-Hilbert-Schmidt distance should be preferred over the approximate Log-Hilbert-Schmidt inner product and, computationally, it should be preferred over the approximate affine-invariant Riemannian distance.

Numerical experiments on image classification demonstrate significant improvements of the infinite-dimensional formulation over the finite-dimensional counterpart. Given the numerous applications of covariance matrices in many areas of mathematics, statistics, and machine learning, just to name a few, we expect that the infinite-dimensional covariance operator formulation presented here will have many more applications beyond those in computer vision.


Table of Contents

1. Cover

2. Copyright

3. Title Page

4. Contents

5. Acknowledgments

6. Introduction

7. Covariance Matrices and Applications

8. Covariance Operators and Applications

✨ ضمانت تجربه خوب مطالعه

بازگشت کامل وجه

در صورت مشکل، مبلغ پرداختی بازگردانده می شود.

دانلود پرسرعت

دانلود فایل کتاب با سرعت بالا

ارسال فایل به ایمیل

دانلود مستقیم به همراه ارسال فایل به ایمیل.

پشتیبانی ۲۴ ساعته

با چت آنلاین و پیام‌رسان ها پاسخگو هستیم.

ضمانت کیفیت کتاب

کتاب ها را از منابع معتیر انتخاب می کنیم.