what is support vector machine machine learning
Овај водич објашњава машину за подршку вектора у МЛ и повезане концепте као што су Хиперплане, вектори подршке и примене СВМ-а:
У Претходни водич , сазнали смо о генетским алгоритмима и њиховој улози у машинском учењу.
Проучавали смо неке надгледане и ненадгледане алгоритме у машинском учењу у нашим ранијим водичима. Бацкпропагатион је надгледани алгоритам учења, док је Кохенен алгоритам учења без надзора.
У овом упутству за векторе машина за подршку научићемо о машинама за векторе подршке. СВМ су робусни математички надгледани алгоритми машинског учења који се широко користе у класификацији скупа података о обуци.
=> Прочитајте комплетну серију обука за машинско учење
Шта ћете научити:
- Шта је машина за векторске подршке (СВМ)
- Шта је хиперплан
- Шта су алгоритми класификације и регресије
- Шта су вектори подршке
- Како ради машина за векторске носаче
- Како оптимизирати положај хиперплана
- Примене СВМ-а
- Закључак
- Препоручено читање
Шта је машина за векторске подршке (СВМ)
СВМ алгоритам је надгледани алгоритам учења категорисан у категорији Класификационе технике. То је бинарна техника класификације која користи скуп података за обуку за предвиђање оптималне хипер равни у н-димензионалном простору.
Овај хиперраван се користи за класификацију нових скупова података. Будући да је бинарни класификатор, скуп података о тренингу хиперраван дели скуп података о тренингу у две класе.
СВМ алгоритми се користе за класификацију података у дводимензионалној равни као и вишедимензионалној хиперравни. Вишедимензионални хиперраван користи „језгра“ за категоризацију вишедимензионалних података.
Увек се жели максимална разлика између класификованих тачака података. То значи да би требало да имају максимално растојање или би хиперраван требало да има максималну маргину између тачака података.
Шта је хиперплан
Хиперраван је граница која дели раван. То је граница одлуке која тачке података класификује у 2 различите класе. Како се СВМ користи за класификацију података у вишедимензионалне, хиперраван може бити права линија ако постоје 2 улаза или 2 Д раван ако има више од 2 улаза.
СВМ алгоритми се такође могу користити за регресиону анализу, али углавном се користе за класификацију. Погледајмо још детаља о свакој од ових метода.
Шта су алгоритми класификације и регресије
Алгоритам класификације је онај који анализира податке о тренингу да би предвидео исход. Исход је циљна класа, на пример , Дан или Ноћ, Да или Не, Дуго или Кратко. Пример алгоритма класификације био би да ли би купац у супер продавници који купује хлеб такође купио маслац. Циљна класа би била „Да“ или „Не“.
Регресијски алгоритам открива везу између независних променљивих и предвиђа исход. Линеарна регресија открива линеарни однос између улаза и излаза. На пример: „А“ као улаз и „б“ као излаз, линеарна функција би била б = к * а + ц.
Шта су вектори подршке
Вектори подршке су тачке података које нам помажу да оптимизујемо хиперраван. Ови вектори леже најближе хиперравни и најтеже их је класификовати. Положај хиперравне одлуке зависи од вектора ослонца. Ако се уклоне ови вектори ослонца, онда ће се променити и положај хиперравнине.
Машина вектора подршке (СВМ) користи тачке улазних података или функције које се називају вектори подршке да би максимизовала границе одлуке, тј. Простор око хипер равни. Улази и излази СВМ-а слични су неуронској мрежи. Постоји само једна разлика између СВМ и НН како је наведено у наставку.
Улази: СВМ мрежа може садржати н броја улаза рецимо к1, Иксдва, …… .., Икси,…., ИКСн.
Излази: Излазни циљ т.
Тежине: Попут тегова неуронске мреже в1, удва, ……, унповезани су са сваким улазом чија линеарна комбинација предвиђа излаз и.
Разлика између СВМ-а и неуронских мрежа
Синаптички пондери у неуронским мрежама елиминишу се да би се израчунао излазни резултат и мрежи, док се у СВМ не-нулти тегови смањују или елиминишу да би се израчунала оптимална граница одлуке.
Елиминацијом тежина, смањиће скуп улазних података на неколико важних улазних карактеристика које ће помоћи у одлучивању о хиперравни која се може раздвојити.
Како ради машина за векторске носаче
Као што знамо, циљ машина за векторске носаче је да максимизирају маргину између класификованих тачака података. Ово ће донети оптималније резултате за класификацију нових скупова необучених података. Дакле, то се може постићи ако се хиперраван налази на положају где је маргина максимална.
Погледајмо пример линеарно одвојених тачака података:
Корак 1: Пронађите тачну хиперплан из различитих могућности: Да бисте одлучили који је најбољи хиперплан, сазнајте све могуће равни које деле податке, а затим од тога одаберите ону која најбоље класификује улазне скупове података. На доњем графикону постоје три могућности хиперплана. Хиперраван 3 боље дели тачке података.
Корак 2: Изаберите хиперраван која има максималну маргину између најближих тачака података: Маргина је дефинисана као удаљеност између хипер равни и најближих тачака података. Дакле, оптимално је имати максималну маржу. Када 2 или више од 2 хиперплана подједнако класификују податке, онда сазнајте маргину.
Изабран је хиперплан са максималном маргином. На слици испод, хиперраван 2.1,2.2 и 2.3 дели тачке података, али хиперраван 2.2 има максималну маргину.
Корак 3: Када су присутни одступања: Изузеци су тачке података које се разликују од скупа тачака података. У случају 2 скупа тачака података, можда постоји одступање. СВМ игнорише такве одступања у подацима, а затим проналази хиперплан максималне маргине.
Корак 4: У случају нелинеарно одвојених тачака података, СВМ користи трик језгра. Увођењем нове димензије претвориће нелинеарно одвојиву раван у одвојиву плочу. Трикови језгра су сложене математичке једначине које врше сложене трансформације података ради оптимизације хиперплане.
Доња слика приказује нелинеарно одвојиве тачке података које се затим трансформишу у високу димензионалност помоћу з равни. Хиперраван који дели два скупа података је круг.
Како оптимизирати положај хиперплана
Положај хипер равни се оптимизује помоћу алгоритама за оптимизацију.
СВМ параметар: Кернел
Изградња оптимизоване хипер равни у нелинеарно одвојивом проблему врши се помоћу кернела. Језгра су математичке функције које конвертују сложени проблем користећи линеарни алгебарски облик.
За линеарно језгро, једначина се налази као:
Ф (к) = б + збир (аи* (к, ки))
где,
к су нови улазни подаци
Иксије вектор подршке
б, аису коефицијенти. Ови коефицијенти се процењују током фазе учења алгоритма.
За сложени нелинеарно одвојиви проблем, трик кернела делује као претварање нелинеарног одвојивог проблема у одвојиви проблем. Он трансформише сложене податке и проналази начин за поделу тачака података у излазе.
Функције језгра су многих типова као што су линеарне, полиномске, сигмоидне, радијалне пристрасности, нелинеарне и многе друге.
Погледајмо како се користе неке од горе наведених функција језгра:
Функције језгра израчунавају унутрашњи умножак 2 улаза к, и простора.
# 1) Функција радијалне пристрасности: Најкоришћенија функција језгра каже да је за све вредности које леже између к = (-1,1) вредност функције 1 иначе 0. За неке пресретнуте речи ки, вредност Кернел функције је 1 за | (ки- х), (ки+ х) | за киузето за центар и 0 иначе.
# 2) Сигмоидна функција: Као неуронске мреже које користе Сигмоид, функција језгра за СВМ-ове је
# 3) Функција хиперболичког тангента: Како неуронске мреже користе, функција је
# 4) Гауссова функција зрна: Стања функције Гауссова језгра
# 5) Полиномска функција: к (ки, Иксј) = (ки* Иксј+1)два
Примене СВМ-а
Примене СВМ-а у стварном животу укључују:
# 1) Класификација чланака у различите категорије: СВМ разликује писане текстове и сврстава их у различите категорије као што су забава, здравље, белетристички чланци. Заснован је на унапред подешеним вредностима прага израчунатих током тренинга СВМ-а.
Ако се пређе гранична вредност, она се ставља на категорију. Ако вредност није задовољена, тада се дефинишу нове категорије за класификацију.
доказати то ц # тест одговори
# 2) Препознавање лица: Дата слика је класификована као слика лица или не-лица откривањем карактеристика помоћу пиксела. Слика се препознаје као лице или лице које није лице.
# 3) Здравствене информације: СВМ се користе за класификацију пацијената на основу њихових гена, препознавања биолошких образаца итд.
# 4) Откривање хомологије протеина: У рачунарским медицинским наукама, СВМ-ови су обучени како се моделирају протеинске секвенце. СВМ се затим користи за откривање хомологије протеина.
Закључак
У овом упутству за векторске машине за подршку сазнали смо о векторским машинама за подршку. СВМ алгоритми су надгледани алгоритми учења који се користе за класификацију бинарних података и линеарно одвојивих података. Тачке података класификује по хиперравни са максималном маргином.
Нелинеарне тачке података могу такође да се класификују помоћу векторских машина за подршку помоћу Кернел трикова. Постоји много примена СВМ-а у стварном животу, једна од најчешћих примена је препознавање лица и препознавање рукописа.
Срећно читање !!
=> Посетите овде за ексклузивну серију машинског учења
Препоручено читање
- Водич за машинско учење: Увод у МЛ и његове примене
- Комплетан водич за вештачку неуронску мрежу у машинском учењу
- Рударство података против машинског учења против вештачке интелигенције против дубоког учења
- Врсте машинског учења: Надзирано против ненадгледаног учења
- Увод у генетске алгоритме у машинском учењу
- 11 Најпопуларнијих софтверских алата за машинско учење 2021
- Топ 13 НАЈБОЉИХ компанија за машинско учење (Ажурирана листа 2021)
- Шта је Јава Вецтор | Водич за Јава векторске часове са примерима