Разложение по сингулярным числам (SVD) является одной из наиболее широко используемых и универсальных полезных функций в числовой линейной алгебре для сбора данных, тогда как анализ основных компонентов (PCA) является хорошо зарекомендовавшим себя методом, который представил множество теорий о статистике.
В частности, PCA предоставляет нам управляемую данными иерархическую систему координат.
Основные выводы
- SVD — это метод матричной факторизации, применимый к любой матрице, тогда как PCA — это линейное преобразование, характерное для ковариационных матриц.
- PCA используется для сжатия данных и извлечения признаков, тогда как SVD имеет различные приложения для обработки сигналов, интеллектуального анализа данных и поиска информации.
- SVD не требует центрированных данных, в то время как PCA лучше всего работает с центрированными и нормализованными данными.
Разложение по сингулярным значениям (SVD) и анализ главных компонентов (PCA)
Разложение по сингулярным числам (SVD) — это метод факторизации в линейной алгебре, который может разлагать любую вещественную или комплексную матрицу. Анализ основных компонентов (PCA) — это статистическая процедура, которая использует SVD или собственное разложение ковариационной или корреляционной матрицы для определения основных компонентов.

Разложение по сингулярным числам (SVD) является наиболее широко используемой функцией числовой линейной алгебры. Это помогает свести данные к ключевым характеристикам, необходимым для анализа, понимания и описания.
SVD является одним из первых элементов в большинстве алгоритмов предварительной обработки данных и машинного обучения, в частности, для сокращения данных. SVD — это обобщение преобразования Фурье, управляемое данными.
Анализ основных компонентов (PCA) в настоящее время является статистическим инструментом, который породил множество идей. Это позволит нам использовать иерархический набор точек для выражения статистических изменений.
PCA — это метод статистического/машинного интеллекта, используемый для определения основных шаблонов данных, которые максимизируют общую вариацию. Таким образом, максимальная дисперсия фиксируется системой координат в зависимости от направлений данных.
Сравнительная таблица
Параметры сравнения | Разложение по сингулярным значениям (SVD) | Анализ главных компонентов (PCA) |
---|---|---|
Требования | Абстрактная математика, матричная декомпозиция и квантовая физика требуют SVD. | Статистика особенно эффективна в PCA для анализа данных исследования. |
Выражение | Факторизация алгебраических выражений. | аналогично аппроксимации факторизованных выражений. |
методы | Это метод абстрактной математики и матричной декомпозиции. | Это метод статистики/машинного обучения. |
Филиал | Полезен в области математики. | Полезен в области математики. |
Изобретение | СВД была изобретена Эудженио Бельтрами и Камиллой Джордан. | PCA был изобретен Карлом Пирсоном. |
Что такое разложение по сингулярным значениям (SVD)?
SVD тесно связана с частью положительно определенной матрицы собственного значения и факторизацией собственного вектора.
Хотя не все матрицы могут быть факторизованы как pt, любая матрица A размером m × n может быть факторизована, если слева и PT справа могут быть любые две ортогональные матрицы U и vt (не обязательно транспонированные друг друга).
Этот тип специальной факторизации известен как SVD.
Разложения синуса и косинуса используются во всей математике для аппроксимации функций, а FT — одно из самых полезных преобразований. Существуют также функции Бесселя и Эйри, а также сферические гармоники.
И в предшествующем поколении компьютерных наук и техники это математическое преобразование математической модели использовалось для перевода интересующей системы в новую систему координат.
Одним из известных алгоритмов является SVD. Можно использовать линейную алгебру для получения дохода.
Одним из наиболее полезных аспектов использования линейной алгебры для получения прибыли является то, что она широко распространена, поскольку основана на очень простой и понятной линейной алгебре, которую можно использовать в любое время.
Если у вас есть матрица данных, вы можете вычислить svd и получить интерпретируемые и понятные функции, из которых вы можете создавать модели. Он также масштабируем, поэтому его можно использовать для очень больших наборов данных.
Каждый матричный коэффициент делится на три части, которые известны как u Sigma v транспонировать. Ортогональная матрица является компонентой u. Диагональная Матрица – это фактор Сигма.
Транспонированный фактор v также является ортогональной матрицей, что делает ее ортогональной диагональной или физически растягивающейся и вращающейся.
Каждая Матрица факторизуется в ортогональную Матрицу путем умножения ее на диагональную Матрицу (единственное значение) на другую ортогональную Матрицу: вращение, растяжение во времени, вращение во времени.
Что такое анализ главных компонентов (PCA)?
PCA — хорошо зарекомендовавший себя метод, который ввел множество теорий о статистике. Это эквивалентно аппроксимации факторизованного утверждения путем сохранения «наибольшего» члена и исключения всех меньших членов.
Это хорошо зарекомендовавший себя метод, который ввел множество теорий о статистике. В частности, PCA предоставляет нам управляемую данными иерархическую систему координат.
Анализ главных компонент (PCA) называется подходящей ортогональной декомпозицией. PCA — это метод выявления закономерностей в данных путем определения их с точки зрения сходств и различий.
В PCA имеется матрица данных X, содержащая набор измерений из разных экспериментов, а два независимых эксперимента представлены в виде больших множителей-строк с координатами x1,x2 и т. д.
PCA — это подход к уменьшению размерности, который может помочь уменьшить размерность наборов данных, используемых при обучении машинному обучению. Это снимает страшное проклятие размерности.
PCA — это метод определения наиболее важных характеристик главного компонента, оказывающих наибольшее влияние на целевую переменную. PCA разрабатывает новый компонент принципа действия.
Основные различия между Разложение по сингулярным значениям (SVD) и анализ главных компонентов (PCA)
- SVD напрямую сравним с факторизацией алгебраических выражений, тогда как PCA эквивалентен аппроксимации факторизованного оператора путем сохранения «самых больших» членов и исключения всех меньших.
- Значения в SVD — это непротиворечивые числа, а факторизация — это процесс их разложения, тогда как PCA — это статистический/машинный способ определения основных аспектов.
- Разложение матрицы на ортонормальные области известно как SVD, тогда как PCA можно рассчитать с помощью SVD, хотя это и дороже.
- SVD — одна из наиболее широко используемых и универсальных полезных функций в числовой линейной алгебре для сбора данных, тогда как PCA — хорошо зарекомендовавший себя метод, который ввел множество теорий о статистике.
- SVD — один из известных алгоритмов, тогда как PCA — это подход к уменьшению размерности.