کوواریانسها در بینایی کامپیوتر و یادگیری ماشین ۲۰۲۲
Covariances in Computer Vision and Machine Learning 2022
دانلود کتاب کوواریانسها در بینایی کامپیوتر و یادگیری ماشین ۲۰۲۲ (Covariances in Computer Vision and Machine Learning 2022) با لینک مستقیم و فرمت pdf (پی دی اف) و ترجمه فارسی
| نویسنده |
Hà Quang Minh, Vittorio Murino |
|---|
ناشر:
Springer Nature
۳۰ هزار تومان تخفیف با کد «OFF30» برای اولین خرید
| سال انتشار |
2022 |
|---|---|
| زبان |
English |
| تعداد صفحهها |
156 |
| نوع فایل |
|
| حجم |
2.2 MB |
🏷️ 200,000 تومان قیمت اصلی: 200,000 تومان بود.129,000 تومانقیمت فعلی: 129,000 تومان.
🏷️
378,000 تومان
قیمت اصلی: ۳۷۸٬۰۰۰ تومان بود.
298,000 تومان
قیمت فعلی: ۲۹۸٬۰۰۰ تومان.
📥 دانلود نسخهی اصلی کتاب به زبان انگلیسی(PDF)
🧠 به همراه ترجمهی فارسی با هوش مصنوعی
🔗 مشاهده جزئیات
دانلود مستقیم PDF
ارسال فایل به ایمیل
پشتیبانی ۲۴ ساعته
توضیحات
معرفی کتاب کوواریانسها در بینایی کامپیوتر و یادگیری ماشین ۲۰۲۲
ماتریسهای کوواریانس نقش مهمی در بسیاری از زمینههای ریاضیات، آمار و یادگیری ماشین و همچنین کاربردهای آنها ایفا میکنند. در بینایی کامپیوتر و پردازش تصویر، آنها منجر به یک نمایش داده قدرتمند، یعنی توصیفگر کوواریانس، با کاربردهای عملی متعدد میشوند.
در این کتاب، ابتدا با ارائه مروری بر رویکرد نمایش {it ماتریس کوواریانس با ابعاد محدود} از تصاویر، همراه با تفسیر آماری آن شروع میکنیم. به طور خاص، در مورد فواصل و واگراییهای مختلفی که از ساختارهای هندسی ذاتی مجموعه ماتریسهای معین مثبت متقارن (SPD) ناشی میشوند، یعنی ساختارهای منیفولد ریمانی و مخروط محدب، بحث میکنیم. از نظر محاسباتی، ما بر روشهای هستهای روی ماتریسهای کوواریانس، به ویژه با استفاده از فاصله لگاریتمی-اقلیدسی، تمرکز میکنیم.
سپس برخی از آخرین پیشرفتها در تعمیم نمایش ماتریس کوواریانس با ابعاد محدود به نمایش {it عملگر کوواریانس با ابعاد نامحدود} از طریق هستههای معین مثبت را نشان میدهیم. ما تعمیم متریک ریمانی ناوردا-آفین و متریک لگاریتمی-هیلبرت-اشمیت، که فاصله لگاریتمی-اقلیدسی را تعمیم میدهد، ارائه میدهیم. از نظر محاسباتی، ما بر روشهای هستهای روی عملگرهای کوواریانس، به ویژه با استفاده از فاصله لگاریتمی-هیلبرت-اشمیت، تمرکز میکنیم. به طور خاص، یک ماشین هستهای دو لایه را با استفاده از فاصله لگاریتمی-هیلبرت-اشمیت و تقریب با ابعاد محدود آن ارائه میدهیم، که پیچیدگی محاسباتی فرمول دقیق را کاهش میدهد و در عین حال تا حد زیادی قابلیت آن را حفظ میکند. تجزیه و تحلیل نظری نشان میدهد که از نظر ریاضی، فاصله تقریبی لگاریتمی-هیلبرت-اشمیت باید به ضرب داخلی تقریبی لگاریتمی-هیلبرت-اشمیت ترجیح داده شود و از نظر محاسباتی، باید به فاصله ریمانی ناوردا-آفین تقریبی ترجیح داده شود.
آزمایشهای عددی بر روی طبقهبندی تصاویر، بهبودهای قابل توجهی از فرمولبندی با ابعاد نامحدود نسبت به همتای با ابعاد محدود آن نشان میدهد. با توجه به کاربردهای متعدد ماتریسهای کوواریانس در بسیاری از زمینههای ریاضیات، آمار و یادگیری ماشین، فقط برای نام بردن چند مورد، انتظار داریم که فرمولبندی عملگر کوواریانس با ابعاد نامحدود ارائه شده در اینجا، کاربردهای بسیار بیشتری فراتر از موارد موجود در بینایی کامپیوتر داشته باشد.
فهرست کتاب:
۱. روی جلد
۲. حق تکثیر
۳. صفحه عنوان
۴. فهرست مطالب
۵. تقدیر و تشکر
۶. مقدمه
۷. ماتریسهای کوواریانس و کاربردها
۸. عملگرهای کوواریانس و کاربردها
توضیحات(انگلیسی)
Covariance matrices play important roles in many areas of mathematics, statistics, and machine learning, as well as their applications. In computer vision and image processing, they give rise to a powerful data representation, namely the covariance descriptor, with numerous practical applications.
In this book, we begin by presenting an overview of the {\it finite-dimensional covariance matrix} representation approach of images, along with its statistical interpretation. In particular, we discuss the various distances and divergences that arise from the intrinsic geometrical structures of the set of Symmetric Positive Definite (SPD) matrices, namely Riemannian manifold and convex cone structures. Computationally, we focus on kernel methods on covariance matrices, especially using the Log-Euclidean distance.
We then show some of the latest developments in the generalization of the finite-dimensional covariance matrix representation to the {\it infinite-dimensional covariance operator} representation via positive definite kernels. We present the generalization of the affine-invariant Riemannian metric and the Log-Hilbert-Schmidt metric, which generalizes the Log-Euclidean distance. Computationally, we focus on kernel methods on covariance operators, especially using the Log-Hilbert-Schmidt distance. Specifically, we present a two-layer kernel machine, using the Log-Hilbert-Schmidt distance and its finite-dimensional approximation, which reduces the computational complexity of the exact formulation while largely preserving its capability. Theoretical analysis shows that, mathematically, the approximate Log-Hilbert-Schmidt distance should be preferred over the approximate Log-Hilbert-Schmidt inner product and, computationally, it should be preferred over the approximate affine-invariant Riemannian distance.
Numerical experiments on image classification demonstrate significant improvements of the infinite-dimensional formulation over the finite-dimensional counterpart. Given the numerous applications of covariance matrices in many areas of mathematics, statistics, and machine learning, just to name a few, we expect that the infinite-dimensional covariance operator formulation presented here will have many more applications beyond those in computer vision.
Table of Contents
1. Cover
2. Copyright
3. Title Page
4. Contents
5. Acknowledgments
6. Introduction
7. Covariance Matrices and Applications
8. Covariance Operators and Applications
دیگران دریافت کردهاند
ریاضیات مالی، مدلسازی نوسانات و کوواریانس: جلد ۲ ۲۰۱۹
Financial Mathematics, Volatility and Covariance Modelling: Volume 2 2019
🏷️ 200,000 تومان قیمت اصلی: 200,000 تومان بود.129,000 تومانقیمت فعلی: 129,000 تومان.
✨ ضمانت تجربه خوب مطالعه
بازگشت کامل وجه
در صورت مشکل، مبلغ پرداختی بازگردانده می شود.
دانلود پرسرعت
دانلود فایل کتاب با سرعت بالا
ارسال فایل به ایمیل
دانلود مستقیم به همراه ارسال فایل به ایمیل.
پشتیبانی ۲۴ ساعته
با چت آنلاین و پیامرسان ها پاسخگو هستیم.
ضمانت کیفیت کتاب
کتاب ها را از منابع معتیر انتخاب می کنیم.
