A főkomponensek geometriai jelentése. Főkomponens-elemzés alkalmazása többváltozós statisztikai adatok feldolgozására

A főkomponens-elemzés egy olyan módszer, amely nagyszámú egymással összefüggő (függő, korrelált) változót fordít le kevesebb független változóra, mivel a nagyszámú változó gyakran megnehezíti az információk elemzését és értelmezését. Szigorúan véve ez a módszer nem alkalmazható a faktoranalízisre, bár sok közös vonása van vele. Speciális egyrészt az, hogy a számítási eljárások során az összes főkomponenst egyszerre kapjuk meg, és számuk kezdetben megegyezik a kezdeti változók számával; másodsorban az összes kezdeti változó variancia teljes dekompozíciójának lehetőségét feltételezik, azaz. teljes magyarázata látens tényezőkön keresztül (általánosított jellemzők).

Képzeljük el például, hogy végeztünk egy vizsgálatot, amelyben mértük a diákok intelligenciáját a Wechsler-teszten, az Eysenck-teszten, a Raven-teszten, valamint a tanulmányi teljesítményüket a szociális, kognitív és Általános pszichológia. Nagyon valószínű, hogy a különböző intelligenciatesztek teljesítménye korrelál egymással, hiszen ezek végül is az alany egy jellemzőjét - az intellektuális képességeit - mérik, bár eltérő módon. Ha túl sok változó van a vizsgálatban ( x 1 , x 2 , …, x p ) , és ezek egy része összefügg egymással, a kutatóban időnként az a vágy, hogy a változók számának csökkentésével csökkentse az adatok összetettségét. Erre szolgál a főkomponens metódus, amely több új változót hoz létre. y 1 , y 2 , …, y p, amelyek mindegyike az eredeti változók lineáris kombinációja x 1 , x 2 , …, x p :

y 1 =a 11 x 1 +a 12 x 2 +…+a 1p x p

y 2 \u003d a 21 x 1 + a 22 x 2 + ... + a 2p x p

(1)

y p =a p1 x 1 +a p2 x 2 +…+a pp x p

Változók y 1 , y 2 , …, y p főkomponenseknek vagy tényezőknek nevezzük. Így a faktor egy mesterséges statisztikai mutató, amely a korrelációs mátrix speciális transzformációiból adódik . A faktorok kinyerésének eljárását mátrixfaktorizálásnak nevezzük. A faktorizálás eredményeként a korrelációs mátrixból eltérő számú faktor kinyerhető az eredeti változók számával megegyező számig. A faktorizáció eredményeként meghatározott tényezők azonban általában nem egyenértékűek értékükben.

Esély a ij, új változót definiáló, úgy van megválasztva, hogy az új változók (főkomponensek, faktorok) az adatok variabilitásának maximális mértékét írják le, és ne korreláljanak egymással. Gyakran hasznos az együtthatók ábrázolása a ij hogy az eredeti változó és az új változó (tényező) közötti korrelációs együtthatót reprezentálják. Ezt szorzással érik el a ij a szórás faktor a. Ez a legtöbb statisztikai csomagban megtörténik (a STATISTICA programban is). Esélya ij Általában táblázat formájában jelennek meg, ahol a tényezők oszlopokba, a változók pedig sorokba vannak rendezve:

Az ilyen táblázatot a faktorterhelések táblázatának (mátrixának) nevezzük. A benne megadott számok az együtthatók a ij.A 0,86-os szám azt jelenti, hogy az első faktor és a Wechsler-teszt értéke közötti korreláció 0,86. Minél nagyobb a faktorterhelés abszolút értékben, annál erősebb a kapcsolat a változó és a faktor között.

A FŐALKATRÉSZ MÓDSZERÉNEK ALKALMAZÁSA

TÖBBDIMENZIÓS STATISZTIKAI ADATOK FELDOLGOZÁSÁRA

Foglalkozik a hallgatók minősítési értékelésének többdimenziós statisztikai adatainak feldolgozásának kérdéseivel a főkomponensek módszere alapján.

Kulcsszavak: többváltozós adatelemzés, dimenziócsökkentés, főkomponens elemzés, minősítés.

A gyakorlatban gyakran találkozhatunk olyan helyzettel, amikor a vizsgálat tárgyát számos paraméter jellemzi, amelyek mindegyikét mérik vagy értékelik. A több azonos típusú objektum vizsgálata eredményeként kapott kiindulási adattömb elemzése gyakorlatilag megoldhatatlan feladat. Ezért a kutatónak elemeznie kell a kezdeti paraméterek közötti kapcsolatokat és kölcsönös függőségeket, hogy néhányat elvethessen, vagy kisebb számú függvényt helyettesítsen belőlük, lehetőség szerint megtartva a bennük lévő összes információt.

Ezzel kapcsolatban felmerülnek a dimenziócsökkentés feladatai, vagyis az eredeti adattömbről az eredetiek közül kiválasztott, vagy valamilyen transzformációval kapott, lényegesen kisebb számú indikátorra való áttérés (az eredeti tömbben lévő legkisebb információveszteséggel). ), és osztályozás - a vizsgált tárgygyűjtemények homogén (bizonyos értelemben) csoportokba való szétválasztása. Ha által egy nagy szám A heterogén és sztochasztikusan egymással összefüggő mutatók esetében egy egész objektumhalmaz statisztikai felmérésének eredményeit kaptuk, majd az osztályozás és a dimenziócsökkentés problémáinak megoldásához a többváltozós statisztikai elemzés eszközeit, különösen a fő összetevői.


A cikk egy technikát javasol a főkomponens módszer alkalmazására többváltozós statisztikai adatok feldolgozására. Példaként a hallgatói értékelések többváltozós eredményeinek statisztikai feldolgozásának problémájának megoldását adjuk meg.

1. A főkomponensek meghatározása és számítása..png" height="22 src="> jellemzők. Ennek eredményeként többdimenziós megfigyeléseket kapunk, amelyek mindegyike vektoros megfigyelésként ábrázolható

ahol a https://pandia.ru/text/79/206/images/image005.png" height="22 src=">.png" height="22 src="> az átültetési művelet szimbóluma.

Az eredményül kapott többdimenziós megfigyeléseket statisztikailag fel kell dolgozni..png" height="22 src=">.png" height="22 src=">.png" width="132" height="25 src=">.png" width="33" height="22 src="> a vizsgált jellemzők átalakítása engedélyezett 0 " style="border-collapse:collapse">

a normalizálási feltétel;

– ortogonalitási feltétel

Hasonló transzformációval kaptuk https://pandia.ru/text/79/206/images/image018.png" width="79" height="23 src=">, és reprezentálják a fő összetevőket. Ezekből a további elemzés során , a minimális szórású változók ki vannak zárva , azaz.png" width="131" height="22 src="> ennek a transzformációjában (2)..png" width="13" height="22 src="> mátrix egyenlőek a főkomponensek szórásával.

Így az első fő komponens https://pandia.ru/text/79/206/images/image013.png" width="80" height="23 src="> ezeknek a mutatóknak egy ilyen normalizált-központú lineáris kombinációját nevezik, amely többek között más hasonló kombinációk, a legnagyobb szórással rendelkezik..png" width="12" height="22 src="> egyéni mátrix vektor https://pandia.ru/text/79/206/images/image025.png" width="15" height="22 src=">.png" width="80" height="23 src= "> ezeknek a mutatóknak egy ilyen normalizált-központú lineáris kombinációja, amely nem korrelál a https://pandia.ru/text/79/206/images/image013.png" width="80" height="23 src=" ">. png" width="80" height="23 src="> különböző mértékegységekben mérik, akkor a főkomponensek felhasználásával végzett vizsgálat eredménye jelentősen függ a skálaválasztástól és a mértékegységek jellegétől és a kapott eredményeket lineáris kombinációk az eredeti változókat nehéz lesz értelmezni. Ebben a tekintetben a kezdeti jellemzők különböző mértékegységeivel DIV_ADBLOCK310 ">


https://pandia.ru/text/79/206/images/image030.png" width="17" height="22 src=">.png" width="56" height="23 src=">. Egy ilyen átalakítás után a főkomponenseket az értékekhez viszonyítva elemezzük. https://pandia.ru/text/79/206/images/image033.png" width="17" height="22 src="> , amely egyben egy korrelációs mátrix is ​​https://pandia.ru/text/79/206/images/image035.png" width="162" height="22 src=">.png" width="13" height=" 22 src="> to én- forrásjellemző ..png" width="14" height="22 src=">.png" width="10" height="22 src="> egyenlő a szórással v- fő komponens https://pandia.ru/text/79/206/images/image038.png" width="10" height="22 src="> a fő összetevők értelmes értelmezésére szolgál..png" width ="20" height="22 src=">.png" width="251" height="25 src=">

A számításokhoz a vektoros megfigyeléseket egy mintamátrixba összesítik, amelyben a sorok a szabályozott jellemzőknek, az oszlopok pedig a vizsgált objektumoknak felelnek meg (a mátrix dimenziója https://pandia.ru/text/ 79/206/images/image043.png" width="348 "height="67 src=">

A kezdeti adatok központosítása után a képlet segítségével megtaláljuk a mintakorrelációs mátrixot

https://pandia.ru/text/79/206/images/image045.png" width="204" height="69 src=">

Átlós mátrixelemek https://pandia.ru/text/79/206/images/image047.png" width="206" height="68 src=">

Ennek a mátrixnak az átlótól eltérő elemei a megfelelő jellemzőpár közötti korrelációs együtthatók mintabecslései.

Összeállítás karakterisztikus egyenlet a 0. mátrixhoz " style="margin-left:5.4pt;border-collapse:collapse">

Keresse meg az összes gyökerét:

Most, hogy megtaláljuk a fő vektorok összetevőit, egymás után numerikus értékeket helyettesítünk https://pandia.ru/text/79/206/images/image065.png" width="16" height="22 src=" >.png" width="102 "height="24 src=">

Például: https://pandia.ru/text/79/206/images/image069.png" width="262" height="70 src=">

Nyilvánvaló, hogy a kapott egyenletrendszer a homogenitás miatt konzisztens és határozatlan, azaz végtelen megoldáshalmaza van. Ahhoz, hogy megtaláljuk a számunkra érdekes megoldást, a következő rendelkezéseket alkalmazzuk:

1. A rendszer gyökereihez a reláció felírható

https://pandia.ru/text/79/206/images/image071.png" width="20" height="23 src="> – algebrai összeadás j-edik eleme bármely én a rendszermátrix sora.

2. A (2) normalizálási feltétel jelenléte biztosítja a vizsgált egyenletrendszer megoldásának egyediségét..png" width="13" height="22 src=">, egyedileg meghatározottak, kivéve, hogy mindegyik A sajátvektorok komponensek előjelei azonban nem játszanak jelentős szerepet, mivel változásuk nem befolyásolja az elemzés eredményét, csak ellentétes tendenciák jelzésére szolgálhatnak a megfelelő főkomponensen.

Így megkapjuk a saját vektorunkat https://pandia.ru/text/79/206/images/image025.png" width="15" height="22 src=">:

https://pandia.ru/text/79/206/images/image024.png" width="12" height="22 src="> ellenőrzés egyenlőséggel

https://pandia.ru/text/79/206/images/image076.png" width="503" height="22">

… … … … … … … … …

https://pandia.ru/text/79/206/images/image078.png" width="595" height="22 src=">

https://pandia.ru/text/79/206/images/image080.png" width="589" height="22 src=">

ahol https://pandia.ru/text/79/206/images/image082.png" width="16" height="22 src=">.png" width="23" height="22 src="> a megfelelő kezdeti jellemzők szabványosított értékei.

Ortogonális mátrixot készítünk lineáris transzformáció https://pandia.ru/text/79/206/images/image086.png" width="94" height="22 src=">

Mivel a főkomponensek tulajdonságainak megfelelően a kezdeti jellemzők szórásának összege megegyezik az összes főkomponens szórásának összegével, így ha normalizált kezdeti jellemzőket vettünk figyelembe, meg tudjuk becsülni, hogy melyik rész a kezdeti jellemzők teljes variabilitása magyarázza az egyes fő összetevőket. Például az első két fő összetevőhöz a következőket találjuk:

Így a korrelációs mátrixból talált főkomponensek informativitási kritériumának megfelelően az első hét főkomponens magyarázza a tizenöt kiindulási jellemző teljes variabilitásának 88,97%-át.

A https://pandia.ru/text/79/206/images/image038.png" width="10" height="22 src="> lineáris transzformációs mátrix használatával (az első hét fő összetevőhöz):

https://pandia.ru/text/79/206/images/image090.png" width="16" height="22 src="> - a tudományos és szakdolgozat versenyen kapott oklevelek száma; https:/ /pandia .ru/text/79/206/images/image092.png" width="16" height="22 src=">.png" width="22" height="22 src=">.png" szélesség =" 22" height="22 src=">.png" width="22" height="22 src="> – regionális, regionális és városi sportversenyeken átvett díjak és díjak.

3..png" width="16" height="22 src=">(bizonyítványok száma a tudományos ill. tézisek).

4..png" width="22" height="22 src=">(egyetemi versenyeken átvett díjak és díjak).

6. A hatodik főkomponens pozitívan korrelál a DIV_ADBLOCK311">-el

4. A harmadik fő összetevő a tanulók aktivitása az oktatási folyamatban.

5. A negyedik és a hatodik komponens a hallgatók szorgalma a tavaszi, illetve az őszi félév során.

6. Az ötödik fő komponens az egyetemi sportversenyeken való részvétel mértéke.

A jövőben a fő komponensek azonosításához szükséges összes számítás elvégzéséhez speciális statisztikai szoftverrendszerek, például STATISTICA használata javasolt, amely nagyban megkönnyíti az elemzési folyamatot.

Javasoljuk, hogy az ebben a cikkben ismertetett fő összetevők azonosításának folyamatát a hallgatók minősítésének példáján használják az alapképzési és mesterképzési diplomák tanúsításához.

BIBLIOGRÁFIA

1. Alkalmazott statisztika: Osztályozás és méretcsökkentés: Ref. szerk. / , ; szerk. . - M.: Pénzügy és statisztika, 1989. - 607 p.

2. Alkalmazott statisztika kézikönyve: 2 kötetben: [per. angolból] / szerk. E. Lloyd, W. Lederman, . - M.: Pénzügy és statisztika, 1990. - T. 2. - 526 p.

3. Alkalmazott statisztika. Az ökonometria alapjai. 2 kötetben T.1. Valószínűségszámítás és alkalmazott statisztika: Proc. egyetemeknek / , V. S. Mkhitaryan. - 2. kiadás, Rev. - M: UNITY-DANA, 2001. - 656 p.

4. Afifi, A. Statisztikai elemzés: számítógéppel segített megközelítés: [ford. angolból] / A. Afifi, S. Eisen. - M .: Mir, 1982. - 488 p.

5. Drónok, Statisztikai analízis: tanulmányok. pótlék / . - Barna 3. – 213 p.

6. Anderson, T. Bevezetés a többváltozós statisztikai elemzésbe / T. Anderson; per. angolról. [satöbbi.]; szerk. . - M .: Állam. Phys.-Math Kiadó. lit., 1963. - 500 p.

7. Lawley, D. A faktoranalízis mint statisztikai módszer / D. Lawley, A. Maxwell; per. angolról. . – M.: Mir, 1967. – 144 p.

8. Dubrov, statisztikai módszerek: tankönyv / , . - M.: Pénzügy és statisztika, 2003. - 352 p.

9. Kendall, M. Többváltozós statisztikai elemzés és idősorok / M. Kendall, A. Stuart, per. angolról. , ; szerk. , . – M.: Nauka, 1976. – 736 p.

10. Beloglazov, Elemzés az oktatás minőségi problémáiban, Izv. RAN. Elmélet és ellenőrzési rendszerek. - 2006. - 6. sz. - S. 39 - 52.

Az anyag 2011. november 8-án érkezett a szerkesztőséghez.

A munkát az "Innovatív Oroszország tudományos és tudományos-pedagógiai személyzete" 2009-2013 közötti szövetségi célprogram keretében végezték. (P770 sz. állami szerződés).

A komponenselemzés többváltozós dimenziócsökkentési módszerekre vonatkozik. Egy módszert tartalmaz – a főkomponens módszert. A fő összetevők a ortogonális rendszer koordináták, amelyekben a komponensek diszperziói jellemzik statisztikai tulajdonságaikat.

Tekintettel arra, hogy a gazdaság vizsgálati tárgyait nagy, de véges számú jellemző jellemzi, amelyek befolyását befolyásolja. egy nagy szám véletlenszerű okok.

Főkomponens számítás

A vizsgált X1, X2, X3, X4, ..., Xn jellemzők rendszerének első Z1 fő komponense ezeknek a jellemzőknek olyan központosított - normalizált lineáris kombinációja, amely többek között ezen jellemzők központosított - normalizált lineáris kombinációival rendelkezik. a legváltozatosabb szórás.

A Z2 második fő összetevőjeként ezeknek a jellemzőknek egy olyan központosított - normalizált kombinációját vesszük, amely:

nem korrelál az első főkomponenssel,

nem korrelál az első főkomponenssel, ennek a kombinációnak a legnagyobb a varianciája.

A K-edik Zk főkomponenst (k=1…m) a jellemzők olyan központosított - normalizált kombinációjának nevezzük, amely:

nem korrelál a k-1 korábbi főkomponensekkel,

a kezdeti jellemzők összes lehetséges kombinációja között, amelyek nem

nem korrelál a k-1 korábbi főkomponensekkel, ennek a kombinációnak a legnagyobb a varianciája.

Bevezetünk egy U ortogonális mátrixot, és X változóról Z változóra lépünk, és

A vektort úgy választjuk meg, hogy a diszperzió maximális legyen. Megszerzése után úgy választjuk meg, hogy a szórás maximális legyen, feltéve, hogy nincs korrelációban stb.

Mivel az előjeleket összehasonlíthatatlan értékekben mérik, kényelmesebb lesz középre normalizált értékekre váltani. A kezdeti központosított-normalizált jellemzőértékek mátrixát a relációból találjuk meg:

hol van az elfogulatlan, konzisztens és hatékony becslés matematikai elvárás,

A szórás elfogulatlan, következetes és hatékony becslése.

A kezdeti jellemzők megfigyelt értékeinek mátrixa a Függelékben található.

A központosítás és a normalizálás a „Stadia” programmal történt.

Mivel a jellemzők központosak és normalizáltak, a korrelációs mátrix a következő képlettel becsülhető meg:


A komponenselemzés elvégzése előtt elemezzük a kezdeti jellemzők függetlenségét.

A párkorrelációs mátrix jelentőségének ellenőrzése Wilks teszt segítségével.

Felállítottunk egy hipotézist:

H0: jelentéktelen

H1: szignifikáns

125,7; (0,05;3,3) = 7,8

mivel > , akkor a H0 hipotézist elvetjük és a mátrix szignifikáns, ezért érdemes komponensanalízist végezni.

Ellenőrizzük a kovarianciamátrix diagonalitásáról alkotott hipotézist

Felállítottunk egy hipotézist:

Statisztikát készítünk, a törvények szerint szétosztva, szabadságfokkal.

123,21, (0,05;10) =18,307

mivel >, akkor a H0 hipotézist elvetjük, és van értelme komponensanalízist végezni.

A faktorterhelések mátrixának összeállításához az egyenlet megoldásával meg kell találni a mátrix sajátértékeit.

Ehhez a művelethez a MathCAD rendszer sajátértékek függvényét használjuk, amely visszaadja a mátrix sajátértékeit:

Mivel Mivel a kiindulási adat az általános sokaságból vett minta, így nem a mátrix sajátértékeit és sajátvektorait, hanem azok becsléseit kaptuk. Arra leszünk kíváncsiak, hogy statisztikai szempontból mennyire „jól” írják le a minta jellemzői a megfelelő paramétereket az általános sokaságra.

Az i-edik sajátérték konfidenciaintervallumát a következő képlet keresi:

Bizalmi intervallumok számára sajátértékek végül a következő formát veszi fel:

Több sajátérték értékének becslése más sajátértékek konfidenciaintervallumába esik. A sajátértékek multiplicitására vonatkozó hipotézist tesztelni kell.

A többszörösség ellenőrzése statisztikák segítségével történik

ahol r a többszörös gyökök száma.

Ezt a statisztikát méltányosság esetén a törvény szerint elosztjuk a szabadságfokok számával. Tegyük fel a hipotézist:

Mivel a hipotézist elvetik, vagyis a sajátértékeket, és nem többszörösek.

Mivel a hipotézist elvetik, vagyis a sajátértékeket, és nem többszörösek.

A 0,85-ös információtartalom szintjén szükséges kiemelni a főbb összetevőket. Az informativitás mértéke megmutatja, hogy a kezdeti jellemzők szórásának mekkora részét vagy hányadát teszik ki az első k-főkomponensek. Az informativitás mértékét értéknek nevezzük:

Az informativitás adott szintjén három fő összetevőt különböztetünk meg.

Írjuk fel a mátrixot =

Ahhoz, hogy a kezdeti jellemzőktől a főkomponensekig normalizált átmenetvektort kapjunk, meg kell oldani az egyenletrendszert: , ahol a megfelelő sajátérték. Miután megkaptuk a rendszer megoldását, a kapott vektort normalizálni kell.

A probléma megoldásához a MathCAD rendszer sajátvec függvényét használjuk, amely normalizált vektort ad vissza a megfelelő sajátértékhez.

Esetünkben az első négy főkomponens elegendő egy adott információtartalom-szint eléréséhez, így az U mátrix (az eredeti bázisról a sajátvektorok bázisára átmenet mátrix)

Építünk egy U mátrixot, amelynek oszlopai sajátvektorok:

Súlymátrix:

Az A mátrix együtthatók a központosított - normalizált kezdeti jellemzők és a nem normalizált főkomponensek közötti korrelációs együtthatók, és megmutatják a jelenlétet, az erősséget és az irányt. lineáris kapcsolat a megfelelő kezdeti jellemzők és a megfelelő főkomponensek között.

A termelési és gazdasági folyamatok modellezésekor minél alacsonyabb szintű a vizsgált termelési alrendszer (strukturális felosztás, vizsgált folyamat), annál jellemzőbb az input paraméterekre az azokat meghatározó tényezők relatív függetlensége. A vállalkozás munkájának főbb minőségi mutatóinak (munkatermelékenység, termelési költségek, nyereség és egyéb mutatók) elemzése során a modellezési folyamatok összefüggő bemeneti paraméterei (tényezői) rendszerével kell foglalkozni. Ugyanakkor a rendszerek statisztikai modellezésének folyamatát erős korreláció jellemzi, és esetenként szinte lineáris függőség meghatározó tényezők (a folyamat bemeneti paraméterei). Ez a multikollinearitás esete, azaz. A bemeneti paraméterek jelentős kölcsönös függése (korrelációja), a regressziós modell itt nem tükrözi megfelelően a vizsgált valós folyamatot. Ha számos tényező hozzáadását vagy elutasítását, a kezdeti információ mennyiségének (a megfigyelések számának) növelését vagy csökkentését alkalmazza, akkor ez jelentősen megváltoztatja a vizsgált folyamat modelljét. Egy ilyen megközelítés alkalmazása drámai módon megváltoztathatja a vizsgált tényezők hatását jellemző regressziós együtthatók értékeit, sőt hatásuk irányát is (a regressziós együtthatók előjele az ellenkezőjére változhat, ha egytől elmozdulunk). modell egy másiknak).

Tapasztalatból tudományos kutatás Köztudott, hogy a legtöbb gazdasági folyamat eltérő magas fok a paraméterek (vizsgált tényezők) kölcsönös hatása (interkorrelációja). A modellezett mutatók regressziójának kiszámításakor ezekre a tényezőkre nehézségek merülnek fel a modellben szereplő együtthatók értékeinek értelmezése során. A modellparaméterek ilyen multikollinearitása gyakran helyi jelleg, azaz nem minden vizsgált tényező kapcsolódik szignifikánsan egymáshoz, hanem a bemeneti paraméterek külön csoportjai. A multikollineáris rendszerek legáltalánosabb esetét a vizsgált faktorok ilyen halmaza jellemzi, amelyek egy része különálló csoportokat alkot, erősen összefüggő belső szerkezettel, és gyakorlatilag nem kapcsolódnak egymáshoz, más része pedig különálló faktor, amely nem formálódik blokkba és nem szignifikánsan kapcsolódnak egymáshoz és a többihez is.erős interkorrelációjú csoportokban szereplő tényezők.



Az ilyen típusú folyamatok modellezéséhez meg kell oldani azt a problémát, hogy az egymással lényegesen összefüggő tényezők halmazát hogyan lehet helyettesíteni más, egymással nem korrelált paraméterekkel, amelynek van egy fontos tulajdonsága: egy új független paraméterkészletnek tartalmaznia kell az összes szükséges információt a vizsgált folyamat kezdeti tényezőhalmazának változása vagy szórása. Egy ilyen probléma megoldásának hatékony eszköze a főkomponens módszer alkalmazása. A módszer alkalmazása során a főkomponensek halmazaiban szereplő kezdeti tényezők kombinációinak közgazdasági értelmezésének problémája merül fel. A módszer lehetővé teszi a modell bemeneti paramétereinek számának csökkentését, ami leegyszerűsíti a kapott regressziós egyenletek használatát.

A főkomponensek számításának lényege, hogy meghatározzuk az X j kezdeti tényezőkre vonatkozó korrelációs (kovariancia) mátrixot, és megkeressük a mátrix és a megfelelő vektorok jellemző számait (sajátértékeit). A karakterisztikus számok az új transzformált változók szórásai, és minden karakterisztikus számhoz a megfelelő vektor megadja, hogy a régi változók milyen súllyal lépnek be az újakba. A fő összetevők az eredeti statisztikák lineáris kombinációi. Az átmenet a kezdeti (megfigyelt) tényezőkről a főkomponensvektorokra forgatással történik koordináta tengelyek.

A regressziós elemzéshez általában csak az első néhány főkomponenst használjuk, amelyek együttesen a faktorok teljes kezdeti variációjának 80-90%-át magyarázzák, a többit figyelmen kívül hagyjuk. Ha minden komponens szerepel a regresszióban, akkor a kezdeti változókkal kifejezett eredménye megegyezik a többszörös regressziós egyenlettel.

Főkomponens számítási algoritmus

Mondjuk van m vektorok (kezdeti tényezők) dimenzióval n(a méretek száma), amelyek az X mátrixot alkotják:

Mivel a szimulált folyamat főbb tényezői általában különböző mértékegységekkel rendelkeznek (egyesek kg-ban, mások km-ben, mások pénzegységben vannak kifejezve stb.), ezek összehasonlításához hasonlítsa össze a befolyás mértékét, a műveletet. méretezést és központosítást használnak. Jelöljük a transzformált bemeneti tényezőket yij. Skálaként leggyakrabban a standard (négyzetgyökér) eltérések értékeit választják:

ahol σ j X j szórása; σ j 2 - diszperzió; - a kezdeti tényezők átlagos értéke az adott j-edik megfigyelési sorozatban

(A központosított valószínűségi változót eltérésnek nevezzük valószínűségi változó annak matematikai elvárásától. Az x érték normalizálása azt jelenti, hogy át kell lépni egy új y értékre, amelyre az átlagérték nulla, a szórás pedig egy).

Határozzuk meg a párkorrelációs együtthatók mátrixát

ahol y ij az x j -edik valószínűségi változó normalizált és központosított értéke az i-edik méréshez; y ik – érték k-edik véletlen mennyiségeket.

Az r jk értéke a pontok eloszlásának mértékét jellemzi a regressziós egyeneshez képest.

Az F főkomponensek kívánt mátrixát a következő összefüggésből határozzuk meg (itt a transzponált, - „90 0-kal elforgatva” - y ij értékmátrixot használjuk):

vagy vektoros formában:

,

ahol F a főkomponensek mátrixa, beleértve a halmazt is n számára kapott értékeket m fő összetevők; Az A mátrix elemei súlyegyütthatók, amelyek meghatározzák az egyes főkomponensek részarányát az eredeti tényezőkben.

Az A mátrix elemeit a következő kifejezésből találjuk meg

ahol u j az R korrelációs együtthatók mátrixának sajátvektora; λ j a megfelelő sajátérték.

Egy λ számot egy m rendű R négyzetmátrix sajátértékének (vagy karakterisztikus számának) nevezünk, ha választhatunk egy m-dimenziós, nem nulla u sajátvektort úgy, hogy Ru = λu.

Az R mátrix összes sajátértékének halmaza egybeesik az |R - λE| egyenlet összes megoldásának halmazával. = 0. A det |R - λE| determináns kiterjesztésével megkapjuk az R mátrix karakterisztikus polinomját. Az |R - λE| = 0-t az R mátrix karakterisztikus egyenletének nevezzük.

Példa sajátértékek és sajátvektorok meghatározására. Adott egy mátrix.

Jellegzetes egyenlete

Ennek az egyenletnek a gyökei λ 1 =18, λ 2 =6, λ 3 =3. keressük meg a λ 3-nak megfelelő sajátvektort (irányt). λ 3-at behelyettesítve a rendszerbe, a következőt kapjuk:

8u 1 – 6u 2 +2u 3 = 0

6u 1 + 7u 2 - 4u 3 = 0

2u 1 - 4u 2 + 3u 3 = 0

Mivel ennek a rendszernek a determinánsa nulla, akkor a lineáris algebra szabályai szerint elveheti az utolsó egyenletet, és megoldhatja a kapott rendszert egy tetszőleges változóra, például u 1 \u003d c \u003d 1

6u2 + 2u3 = - 8c

7 u 2 - 4 u 3 \u003d 6 s

Innen egy sajátirányt (vektort) kapunk λ 3 =3 esetén

1 ugyanúgy megtalálhatja a sajátvektorokat

Általános elvábrán látható a főkomponensek megtalálásának folyamata. 29.



Rizs. 29. Főkomponensek változókkal való összekapcsolásának sémája

Súlyegyütthatók jellemzik ennek a „rejtett” általánosító tulajdonságnak (globális fogalom) a mért mutatók Х j értékeire gyakorolt ​​befolyásának (és irányultságának) mértékét.

Példa a komponenselemzés eredményeinek értelmezésére:

Az F 1 főkomponens elnevezését az határozza meg, hogy szerkezetében jelen vannak az X 1, X 2, X 4, X 6 jelentős jellemzők, ezek mindegyike a termelési tevékenység hatékonyságának jellemzőit jelenti, azaz. F1- termelési hatékonyság.

Az F 2 fő komponens nevét az határozza meg, hogy szerkezetében jelen vannak az X 3, X 5, X 7, azaz a jelentős jellemzők. F 2 az a termelési erőforrások nagysága.

KÖVETKEZTETÉS

A kézikönyvben megadva tananyagok, amelynek célja a gazdasági és matematikai modellezés elsajátítása a vezetői döntések igazolása érdekében. Nagy figyelmet fordítanak a matematikai programozásra, beleértve az egészszámú programozást, a nemlineáris programozást, a dinamikus programozást, a szállítási típusú problémákat, a sorelméletet, a főkomponens elemzést. A modellezést részletesen figyelembe veszik a termelési rendszerek szervezésének és irányításának gyakorlatában, a vállalkozói tevékenységben és a pénzügyi irányításban. A bemutatott anyag tanulmányozása magában foglalja a modellezési és számítási technikák széleskörű elterjedését PRIMA szoftvercsomag segítségével és Excel táblázatkezelő környezetben.

Fő összetevők

5.1 A többszörös regresszió és a kanonikus korreláció módszerei a meglévő jellemzőkészlet két részre bontását jelentik. Egy ilyen felosztás azonban korántsem mindig lehet objektíven megalapozott, ezért az indikátorok kapcsolatának elemzéséhez olyan megközelítésekre van szükség, amelyek a jellemzővektor egészének figyelembe vételével járnának. Természetesen az ilyen megközelítések megvalósítása során bizonyos heterogenitás mutatható ki ebben a tulajdonsághalmazban, amikor több változócsoportot objektíven azonosítunk. Egy ilyen csoport szolgáltatásaihoz keresztkorrelációk sokkal magasabb lesz a különböző csoportok mutatóinak kombinációihoz képest. Ez a csoportosítás azonban az adatok objektív elemzésének eredményein, nem pedig a kutató előzetes önkényes megfontolásain fog alapulni.

5.2 Az egyes belüli összefüggések tanulmányozásakor egyetlen készlet m jellemzői


x"= X 1 X 2 X 3 ... X m

ugyanazt a módszert használhatja, mint a többszörös regressziós elemzésben és a kanonikus korrelációk módszerében - új változókat nyerve, amelyek variációja teljes mértékben tükrözi a többváltozós összefüggések meglétét.

Az egyetlen jellemzőhalmaz csoporton belüli kapcsolatainak vizsgálatának célja, hogy meghatározzuk és megjelenítsük e változók korrelatív változásának objektíven létező fő irányait. Ezért ebből a célból bevezethet néhány új Y i változót, amelyek az eredeti X jellemzőkészlet lineáris kombinációiként találhatók meg.

Y 1 = b 1"X= b 11 X 1 + b 12 X 2 + b 13 X 3 + ... + b 1 m X m

Y 2 = b 2"X= b 21 X 1 + b 22 X 2 + b 23 X 3 + ... + b 2 m X m

Y 3 = b 3"X= b 31 X 1 + b 32 X 2 + b 33 X 3 + ... + b 3 m X m (5,1)

... ... ... ... ... ... ...

Y m = b m "X= b m1 X 1 + b m2 X 2 + b m3 X 3 + ... + b m m X m

és számos kívánatos tulajdonsággal rendelkezik. A határozottság kedvéért legyen az új jellemzők száma egyenlő az eredeti mutatók számával (m).

Az egyik ilyen kívánatos optimális tulajdonság lehet az új változók kölcsönös összefüggéstelensége, vagyis a kovarianciamátrixuk átlós alakja.

S y1 2 0 0 ... 0

0 s y2 2 0 ... 0

Sy= 0 0 s y3 2 ... 0, (5.2)

... ... ... ... ...

0 0 0 … s ym 2

ahol s yi 2 az i-edik új jellemző Y i varianciája. Az új változók korrelálatlansága a nyilvánvaló kényelem mellett egy fontos tulajdonsággal is rendelkezik - minden új Y i jellemző csak a független részét veszi figyelembe az eredeti X mutatók változékonyságára és korrelációjára vonatkozó információknak.

Az új jelek második szükséges tulajdonsága a kezdeti mutatók változásának rendezett elszámolása. Tehát az első új Y 1 változó vegye figyelembe az X jellemzők teljes variációjának maximális hányadát. Ez, amint később látni fogjuk, megegyezik azzal a követelménnyel, hogy Y 1 a lehető legnagyobb s y1 2 szórással rendelkezzen. Az (1.17) egyenlőséget figyelembe véve ez a feltétel így írható fel

s y1 2 = b 1 "Sb 1= max , (5,3)

ahol S- X kezdeti jellemzők kovarianciamátrixa, b 1- b 11 , b 12 , b 13 , ..., b 1m együtthatókat tartalmazó vektor, amellyel X 1 , X 2 , X 3 , ..., X m értékével megkaphatjuk a Y 1 .

Legyen a második új Y 2 változó írja le a teljes variáció azon komponensének azt a maximális részét, amely az első új Y 1 jellemző variabilitásának legnagyobb részarányának figyelembevétele után megmaradt. Ennek eléréséhez a feltétel teljesítése szükséges

s y2 2 = b 2 "Sb 2= max , (5,4)

nulla kapcsolatnál Y 1 Y 2 -vel (azaz r y1y2 = 0) és s y1 2 > s y2 2 -nél.

Hasonlóképpen a harmadik új Y 3 jellemzőnek az eredeti jellemzők variációjának harmadik legfontosabb részét kell leírnia, amelyre a varianciája szintén maximális legyen.

s y3 2 = b 3 "Sb 3= max , (5,5)

feltéve, hogy Y 3 nem korrelál az első két új jellemzővel, Y 1 és Y 2 (azaz r y1y3 = 0, r y2y3 = 0) és s y1 2 > s y2 > s y3 2 .

Így minden új változó varianciáját nagyságrendi sorrend jellemzi

s y1 2 > s y2 2 > s y3 2 > ... > s y m 2 . (5.6)

5.3 Vektorok az (5.1) képletből b 1 , b 2 , b 3 , ..., b m , amelynek segítségével az új Y i változókra való átállást kell végrehajtani, felírható mátrix formájában.


B = b 1 b 2 b 3 ... b m . (5.7)

Átmenet a kezdeti jellemzők halmazáról xúj változók halmazához Y mátrixképletként ábrázolható

Y = B" X , (5.8)

és az új jellemzők kovarianciamátrixának megszerzése és a korrelálatlan új változók feltételének (5.2) elérése az (1.19) képlet szerint ábrázolható:

B"SB= Sy , (5.9)

ahol az új változók kovarianciamátrixa Syösszefüggéstelenségük miatt átlós alakú. A mátrixelméletből (szakasz A.25 A) függelék ismert, hogy valamilyen szimmetrikus mátrixra kapott A sajátvektorok u iés számok l i és

mátrixokat hívva belőlük UÉs L, az (A.31) képletnek megfelelően az eredményt megkaphatjuk

U "AU= L ,

ahol L egy átlós mátrix, amely tartalmazza a szimmetrikus mátrix sajátértékeit A. Könnyen belátható, hogy az utolsó egyenlőség teljesen egybeesik az (5.9) képlettel. Ezért a következő következtetés vonható le. Az új változók kívánatos tulajdonságai Y biztosítható, ha a vektorok b 1 , b 2 , b 3 , ..., b m , amelynek segítségével ezekre a változókra való átmenetet végre kell hajtani, a kezdeti jellemzők kovarianciamátrixának sajátvektorai lesznek S. Ekkor az s yi 2 új jellemzők diszperziói sajátértékek lesznek

s y1 2 = l 1 , s y2 2 = l 2 , s y3 2 = l 3 , ... , s ym 2 = l m (5.10)

Főkomponenseknek nevezzük azokat az új változókat, amelyekre az (5.1) és (5.8) képletek szerinti átmenetet az eredeti jellemzők kovarianciamátrixának sajátvektorai segítségével hajtjuk végre. Tekintettel arra, hogy a kovarianciamátrix sajátvektorainak száma általában egyenlő m-vel - ennek a mátrixnak a kezdeti jellemzőinek száma, a főkomponensek száma is egyenlő m-vel.

A mátrixok elméletével összhangban a kovarianciamátrix sajátértékeinek és vektorainak megtalálásához meg kell oldani az egyenletet

(S-én én én)b i = 0 . (5.11)

Ennek az egyenletnek van megoldása, ha teljesül az a feltétel, hogy a determináns egyenlő nullával

½ S-én én én½ = 0. (5.12)

Ez a feltétel lényegében egy olyan egyenletnek is bizonyul, amelynek gyökerei a kovarianciamátrix l 1, l 2, l 3, ..., l m sajátértékei, amelyek egyidejűleg egybeesnek a főkomponensek varianciáival. Miután megkaptuk ezeket a számokat, mindegyik i-edikre az (5.11) egyenlet szerint megkaphatjuk a megfelelő sajátvektort bén . A gyakorlatban speciális iteratív eljárásokat alkalmaznak a sajátértékek és vektorok kiszámítására (B. függelék).

Minden sajátvektor felírható mátrixként B, amely egy ortonormális mátrix lesz, így (szakasz A.24 Az A) függelék szerint végezzük el

B"B = bb" = én . (5.13)

Ez utóbbi azt jelenti, hogy bármely sajátvektorpár esetén b i "b j= 0, és minden ilyen vektorra az egyenlőség b i "b i = 1.

5.4 Szemléltessük két X 1 és X 2 kezdeti jellemző legegyszerűbb esetére a főkomponensek származtatását. Ennek a halmaznak a kovarianciamátrixa:

ahol s 1 és s 2 az X 1 és X 2 jellemzők szórása, r pedig a köztük lévő korrelációs együttható. Ekkor az (5.12) feltétel így írható fel

S 1 2 - l i rs 1 s 2

rs 1 s 2 s 2 2 - l i

5.1. ábra.A főkomponensek geometriai jelentése

A determinánst kibővítve megkaphatjuk az egyenletet

l 2 - l(s 1 2 + s 2 2) + s 1 2 s 2 2 (1 - r 2) = 0,

aminek megoldásával két l 1 és l 2 gyöket kaphatunk. Az (5.11) egyenlet felírható így is


s 1 2 - l i r s 1 s 2 b i1 = 0

r s 1 s 2 s 2 2 - l i b i2 0

Ebbe az egyenletbe behelyettesítve l 1-et, azt kapjuk lineáris rendszer

(s 1 2 - l 1) b 11 + rs 1 s 2 b 12 = 0

rs 1 s 2 b 11 + (s 2 2 - l 1) b 12 = 0,

melynek megoldása az első b 11 és b 12 sajátvektor elemei. A második l 2 gyök hasonló behelyettesítése után megtaláljuk a második b 21 és b 22 sajátvektor elemeit.

5.5 Találjuk ki geometriai érzék fő összetevők. Ez csak vizuálisan tehető meg két jellemző közül az X 1 és X 2 legegyszerűbb esetében. Jellemezzük őket egy kétdimenziós normális eloszlás a korrelációs együttható pozitív értékével. Ha az összes egyedi megfigyelést a jellemzőtengelyek által alkotott síkra alkalmazzuk, akkor a hozzájuk tartozó pontok egy bizonyos korrelációs ellipszis belsejében helyezkednek el (5.1. ábra). Az új Y 1 és Y 2 jellemzők új tengelyként is megjeleníthetők ugyanazon a síkon. A módszer jelentése szerint az X 1 és X 2 jellemzők maximális lehetséges összes szórását figyelembe vevő Y 1 első főkomponensre a szórásának maximumát kell elérni. Ez azt jelenti, hogy Y 1 esetén ilyet kell találni

tengelyt úgy, hogy az értékek eloszlásának szélessége a legnagyobb legyen. Nyilvánvalóan ez akkor valósul meg, ha ez a tengely egybeesik a korrelációs ellipszis legnagyobb tengelyével. Valóban, ha az egyes megfigyeléseknek megfelelő összes pontot erre a koordinátára vetítjük, akkor a lehető legnagyobb tartománnyal és a legnagyobb szórással rendelkező normális eloszlást kapjuk. Ez lesz az első Y 1 főkomponens egyedi értékeinek eloszlása.

A második Y 2 főkomponensnek megfelelő tengelyt az első tengelyre merőlegesen kell megrajzolni, mivel ez a nem korrelált főkomponensek feltételéből következik. Valóban, ebben az esetben egy új koordinátarendszert kapunk, amelynek Y 1 és Y 2 tengelyei egybeesnek a korrelációs ellipszis tengelyeivel. Látható, hogy a korrelációs ellipszis, ha figyelembe vesszük új rendszer A koordináták Y 1 és Y 2 nem korrelált egyedi értékeket mutatják, míg az eredeti jellemzők értékeinél X 1 és X 2 korreláció volt megfigyelhető.

Az eredeti X 1 és X 2 jellemzőkkel társított tengelyekről az Y 1 és Y 2 főkomponensekre orientált új koordinátarendszerre való átmenet egyenértékű a régi tengelyek valamilyen j szöggel történő elforgatásával. Értékét a képlettel találhatjuk meg

Tg 2j = . (5.14)

Az X 1 és X 2 jellemzők értékeiről a fő komponensekre való átmenetet az analitikai geometria eredményeinek megfelelően hajthatjuk végre a formában

Y 1 \u003d X 1 cos j + X 2 sin j

Y 2 \u003d - X 1 sin j + X 2 cos j.

Ugyanez az eredmény felírható mátrix formában is

Y 1 \u003d cos j sin j X 1 és Y 2 \u003d -sin j cos j X 1,

ami pontosan megfelel az Y 1 = transzformációnak b 1"Xés Y 2 = b 2"X. Más szavakkal,

= B" . (5.15)

Így a sajátvektor mátrixot úgy is lehet tekinteni, mint amely tartalmazza trigonometrikus függvények az a forgásszög, amelyet az eredeti jellemzőkkel társított koordinátarendszerből az új tengelyekre való átlépéshez kell végrehajtani a főkomponensek alapján.

Ha van m kezdeti jellemzőnk X 1, X 2, X 3, ..., X m, akkor a vizsgált mintát alkotó megfigyelések valamilyen m-dimenziós korrelációs ellipszoidon belül helyezkednek el. Ekkor az első főkomponens tengelye egybeesik ennek az ellipszoidnak a legnagyobb tengelyével, a második főkomponens tengelye pedig ennek az ellipszoidnak a második tengelyével, és így tovább. Az X 1, X 2, X 3, ..., X m jellemzők tengelyeihez tartozó eredeti koordinátarendszerről a főkomponensek új tengelyeire való átmenet egyenértékű lesz a régi tengelyek többszöri elforgatásával. j 1 , j 2 , j 3 , .. . szögek és az átmeneti mátrix B off set x a főkomponensek rendszeréhez Y, amely saját szemhéjból áll

tori a kovariancia mátrix, tartalmazza az új koordinátatengelyek szögeinek trigonometrikus függvényeit az eredeti jellemzők régi tengelyeivel.

5.6 A sajátértékek és vektorok tulajdonságainak megfelelően a kezdeti jellemzők és a főkomponensek kovarianciamátrixainak nyomai egyenlőek. Más szavakkal

tr S= tr S y = tr L (5.16)

s 11 + s 22 + ... + s mm \u003d l 1 + l 2 + ... + l m,

azok. a kovarianciamátrix sajátértékeinek összege egyenlő az összes kezdeti jellemző szórásának összegével. Ezért beszélhetünk a kezdeti jellemzők szórásának valamilyen összértékéről, amely tr-val egyenlő S, és a sajátértékrendszer figyelembe veszi.

Az a tény, hogy az első főkomponens maximális szórása l 1, automatikusan azt jelenti, hogy leírja az eredeti tr jellemzők teljes változásának maximális hányadát is. S. Hasonlóan, a második főkomponensnek van a második legnagyobb szórás l 2 , amely megfelel az eredeti jellemzők teljes variációjának második legnagyobb elszámolt részarányának, és így tovább.

Minden főkomponensnél meg lehet határozni, hogy a kezdeti jellemzők variabilitásának összértékéből mekkora részarányt ír le.

5.7 Nyilvánvalóan az X 1 , X 2 , X 3 , ..., X m kezdeti jellemzők halmazának a tr értékkel mért teljes változásának az ötlete. S, csak akkor van értelme, ha ezeket a jellemzőket azonos mértékegységekben mérjük. Ellenkező esetben össze kell adnia a különböző jellemzők diszperzióit, amelyek egy része milliméter négyzetben, mások kilogramm négyzetben, mások radiánban vagy fokban stb. Ez a nehézség könnyen elkerülhető, ha az X ij jellemzők megnevezett értékeiről áttérünk a normalizált z ij = (X ij - M i) értékekre./ S i ahol M i és S i a számtani közép és az i-edik jellemző szórása. A z normalizált jellemzők nulla átlaggal, mértékegység-szórással rendelkeznek, és nem kapcsolódnak semmilyen mértékegységhez. Kezdeti jellemzők kovarianciamátrixa S korrelációs mátrixsá válik R.

Minden, amit a kovarianciamátrixra talált főkomponensekről mondunk, igaz marad a mátrixra is R. Itt is lehetséges, a korrelációs mátrix sajátvektoraira támaszkodva b 1 , b 2 , b 3 , ..., b m , lépjen a z i kezdeti jellemzőkről az y 1 , y 2 , y 3 , ..., y m fő összetevőkre

y 1 = b 1 "z

y 2 = b 2 "z

y 3 = b 3 "z

y m = b m "z .

Ez az átalakítás kompakt formában is megírható

y = B"z ,

5.2. ábra. A főkomponensek geometriai jelentése két z 1 és z 2 normalizált jellemző esetén

ahol y- főkomponensek értékvektora, B- mátrix, beleértve a sajátvektorokat, z- kezdeti normalizált jellemzők vektora. Az egyenlőség is igaz

B „RB= ... ... … , (5.18)

ahol l 1 , l 2 , l 3 , ..., l m a korrelációs mátrix sajátértékei.

A korrelációs mátrix elemzése során kapott eredmények eltérnek a kovarianciamátrix hasonló eredményeitől. Először is, most már lehetséges a különböző mértékegységekben mért jellemzőket figyelembe venni. Másodszor, a mátrixokhoz talált sajátvektorok és számok RÉs S, szintén különböznek. Harmadszor, a korrelációs mátrix által meghatározott és a z jellemzők normalizált értékei alapján meghatározott főkomponensek központosítottnak bizonyulnak - pl. nulla középértékekkel.

Sajnos a korrelációs mátrix sajátvektorainak és számainak meghatározása után lehetetlen ezek közül a kovarianciamátrix hasonló vektoraira és számaira lépni. A gyakorlatban a korrelációs mátrixon alapuló főkomponenseket általában univerzálisabbként használják.

5.8 Tekintsük a korrelációs mátrixból meghatározott főkomponensek geometriai jelentését. Két z 1 és z 2 jellemző esete szemléltető itt. Az ezekhez a normalizált jellemzőkhöz tartozó koordinátarendszernek van egy nullapontja a grafikon közepén (5.2. ábra). A korrelációs ellipszis központi pontja,

beleértve az összes egyedi megfigyelést, egybeesik a koordinátarendszer középpontjával. Nyilvánvaló, hogy a legnagyobb variációval rendelkező első főkomponens tengelye egybeesik a korrelációs ellipszis legnagyobb tengelyével, és a második főkomponens koordinátája ennek az ellipszisnek a második tengelye mentén fog orientálódni.

Az eredeti z 1 és z 2 jellemzőkkel társított koordinátarendszerből a főkomponensek új tengelyeire való átmenet egyenértékű az első tengelyek valamilyen j szöggel történő elforgatásával. A normalizált jellemzők szórása egyenlő 1-gyel, és az (5.14) képlet alapján a j elforgatási szög értéke 45 o . Ekkor a sajátvektorok mátrixa, amely ennek a szögnek a trigonometrikus függvényei alapján határozható meg az (5.15) képlet segítségével, egyenlő lesz

Cos j sin j 1 1 1

B" = = .

Sin j cos j (2) 1/2 -1 1

A kétdimenziós eset sajátértékeinek értékei is könnyen megtalálhatók. Az (5.12) feltétel a következőnek bizonyul

amely megfelel az egyenletnek

l 2 - 2l + 1 - r 2 \u003d 0,

amelynek két gyökere van

l 1 = 1 + r (5,19)

Így a korrelációs mátrix fő komponensei két normalizált jellemzőre nagyon egyszerű képletekkel kereshetők meg

Y 1 = (z 1 + z 2) (5,20)

Y 2 \u003d (z 1 - z 2)

Számtani átlaguk nulla, szórása pedig egyenlő

s y1 = (l 1) 1/2 = (1 + r) 1/2

s y2 = (l 2) 1/2 = (1 - r) 1/2

5.9 A sajátértékek és vektorok tulajdonságainak megfelelően a kezdeti jellemzők korrelációs mátrixának és a sajátértékek mátrixának nyomai egyenlőek. Az m normalizált jellemzők teljes variációja egyenlő m-rel. Más szavakkal

tr R= m = tr L (5.21)

l 1 + l 2 + l 3 + ... + l m = m .

Ekkor az i-edik főkomponens által leírt kezdeti jellemzők összvariációjának részesedése egyenlő

Bevezetheti a P cn fogalmát is - az első n főkomponens által leírt kezdeti jellemzők teljes változásának részesedése,

n l 1 + l 2 + ... + l n

P cn = S P i =. (5.23)

Az a tény, hogy a sajátértékekre l 1 > l 2 > > l 3 > ... > l m alakú sorrend van, azt jelenti, hogy a variáció fő komponensei által leírt részesedésekre is hasonló összefüggések lesznek jellemzőek.

P 1 > P 2 > P 3 > ... > P m . (5.24)

Az (5.24) tulajdonság a P сn felhalmozott részesedés n-től való függésének sajátos formáját vonja maga után (5.3. ábra). Ebben az esetben az első három fő komponens írja le a jellemzők változékonyságának fő részét. Ez azt jelenti, hogy gyakran néhány első főkomponens együttesen a jellemzők teljes variációjának 80-90%-át teheti ki, míg minden további főkomponens nagyon kis mértékben növeli ezt az arányt. Ezután további megfontolásra és értelmezésre csak ez a néhány első főkomponens használható bizalommal, hogy leírják a csoporton belüli variabilitás és korreláció legfontosabb mintázatait.

5.3. ábra. Az n első főkomponenssel leírt P cn jellemzők összvariációja arányának n értékétől való függése. Jellemzők száma m = 9

5.4. ábra. A főkomponensek kiszűrésére vonatkozó kritérium felépítésének meghatározásához

jelek. Ennek köszönhetően a kezelendő informatív új változók száma 2-3-szorosára csökkenthető. Így a fő összetevőknek van még egy fontos és hasznos ingatlan- nagymértékben leegyszerűsítik az eredeti jellemzők variációjának leírását és kompaktabbá teszik azt. A változók számának ilyen csökkentése mindig kívánatos, de bizonyos torzításokkal jár. relatív pozíció az egyes megfigyeléseknek megfelelő pontok a néhány első főkomponens terében az eredeti jellemzők m-dimenziós teréhez képest. Ezek a torzulások abból a kísérletből erednek, hogy a jellemzőteret az első főkomponensek terébe szorítják. A matematikai statisztikában azonban bebizonyosodott, hogy az összes olyan módszer közül, amelyek jelentősen csökkenthetik a változók számát, a főkomponensekre való áttérés vezet a legkisebb torzuláshoz a megfigyelések szerkezetében, amely ezzel a csökkenéssel jár.

5.10 A főkomponensek elemzése során fontos kérdés a számuk további megfontolás céljából történő meghatározása. Nyilvánvaló, hogy a főkomponensek számának növekedése megnöveli a figyelembe vett P cn variabilitás kumulatív részarányát, és közelebb viszi 1-hez. Ezzel párhuzamosan csökken a kapott leírás tömörsége. A főkomponensek számának megválasztása, amely egyszerre biztosítja a leírás teljességét és tömörségét, a gyakorlatban alkalmazott különböző szempontok alapján történhet. Felsoroljuk közülük a leggyakoribbakat.

Az első kritérium azon a megfontoláson alapul, hogy a figyelembe vett főkomponensek száma elegendő informatív teljességet biztosítson a leírásban. Más szavakkal, a vizsgált fő összetevőknek le kell írniuk a kezdeti jellemzők teljes variabilitását: 75-90%-ig. A felhalmozott P cn részesedés meghatározott szintjének megválasztása szubjektív marad, és mind a kutató véleményétől, mind a megoldandó problémától függ.

Egy másik hasonló kritérium (a Kaiser-kritérium) lehetővé teszi 1-nél nagyobb sajátértékű főkomponensek felvételét. Ez azon a feltételezésen alapul, hogy az 1 egy normalizált kezdeti jellemző varianciája. Költő-

Ezért az 1-nél nagyobb sajátértékű főkomponensek további figyelembevétele azt jelenti, hogy csak azokat az új változókat vesszük figyelembe, amelyeknek legalább egy eredeti tulajdonság eltérése van. A Kaiser-kritérium nagyon elterjedt, és számos statisztikai adatfeldolgozásra szolgáló szoftvercsomagba beágyazva használják, amikor meg kell adni a figyelembe vett sajátérték minimális értékét, és az alapértelmezett értéket gyakran 1-gyel egyenlőnek veszik.

A Cattell-féle szitálási kritérium elméletileg valamivel jobban alátámasztott. Alkalmazása egy olyan grafikonon alapul, amelyen az összes sajátérték értéke csökkenő sorrendben van ábrázolva (5.4. ábra). A Cattell-kritérium azon a hatáson alapul, hogy a kapott sajátértékek értékeinek ábrázolt sorozata általában konkáv vonalat hoz létre. Az első néhány sajátérték szintje nem egyenes vonalú csökkenést mutat. Azonban valamilyen sajátértékből kiindulva ennek a szintnek a csökkenése megközelítőleg egyenes vonalúvá és meglehetősen lapossá válik. A főkomponensek figyelembevétele azzal ér véget, amelynek sajátértéke a gráf egyenes vonalú sík szakaszát kezdi. Az 5.4. ábrán tehát a Cattell-kritériumnak megfelelően csak az első három főkomponenst kell figyelembe venni, mert a harmadik sajátérték a gráf egyenes vonalú lapos szakaszának legelején található.

A Cattell-kritérium a következőkön alapul. Ha figyelembe vesszük a normál eloszlású táblázatból mesterségesen nyert m jellemző adatait véletlen számok, akkor számukra a jellemzők közötti összefüggések teljesen véletlenszerűek és közel 0-hoz fognak kerülni. Ha itt megtaláljuk a főkomponenseket, akkor a sajátértékeik nagyságának fokozatos csökkenését észlelhetjük, ami egyenes vonalú. Más szóval, a sajátértékek egyenes vonalú csökkenése azt jelezheti, hogy a megfelelő információk hiányoznak a nem véletlenszerű kapcsolatok jeleinek korrelációjáról.

5.11 A főkomponensek értelmezésekor leggyakrabban sajátvektorokat használnak, amelyeket úgynevezett terhelések - az eredeti jellemzők főkomponensekkel való korrelációs együtthatói - formájában mutatnak be. Sajátvektorok b i kielégítő egyenlőséget (5.18) kapunk normalizált formában, így b i "b i= 1. Ez azt jelenti, hogy az egyes sajátvektorok elemeinek négyzetösszege 1. Azok a sajátvektorok, amelyek elemei terhelések, könnyen megtalálhatók a képlettel

a i= (l i) 1/2 b i . (5.25)

Más szóval, ha a sajátvektor normalizált alakját megszorozzuk sajátértékének négyzetgyökével, megkaphatjuk a megfelelő főkomponens kezdeti jellemzőterheléseinek halmazát. A terhelési vektorok esetében az egyenlőség igaznak bizonyul a i "a i= l i , ami azt jelenti, hogy a négyzetes terhelések összege rá i-edik fő komponens egyenlő az i-edik sajátértékkel. A számítógépes programok általában terhelések formájában adják ki a sajátvektorokat. Ha szükséges ezeket a vektorokat normalizált formában megszerezni b i ezt egy egyszerű képlettel meg lehet tenni b i = a i/ (l i) 1/2 .

5.12 A sajátértékek és vektorok matematikai tulajdonságai olyanok, hogy a szakasznak megfelelően A.25 Mellékletek A eredeti korrelációs mátrix R formában lehet bemutatni R = BLB", ami úgy is írható

R= l 1 b 1 b 1 "+ l 2 b 2 b 2 "+ l 3 b 3 b 3 "+ ... + lm b m b m " . (5.26)

Megjegyzendő, hogy bármelyik kifejezés l i b i b i ", megfelelő i-edik főösszetevő az négyzetmátrix

L i b i1 2 l i b i1 b i2 l i b i1 b i3 … l i b i1 b im

l i b i b i "= l i b i1 b i2 l i b i2 2 l i b i2 b i3 ... l i b i2 b im . (5.27)

... ... ... ... ...

l i b i1 b im l i b i2 b im l i b i3 b im ... l i b im 2

Itt b ij a j-edik eredeti jellemző i-edik sajátvektorának eleme. Egy ilyen l i b ij 2 mátrix bármely átlós tagja a j-edik attribútum variációjának egy része, amelyet az i-edik főkomponens ír le. Ekkor bármely j-edik jellemző varianciája ábrázolható

1 = l 1 b 1j 2 + l 2 b 2j 2 + l 3 b 3j 2 + ... + l m b mj 2 , (5.28)

ami az összes főkomponenstől függő járulékok bővülését jelenti.

Hasonlóképpen, az (5.27) mátrix bármely l i b ij b ik nem-diagonális tagja az i-edik főkomponens által figyelembe vett j-edik és k-edik jellemző r jk korrelációs együtthatójának egy bizonyos része. Ekkor ennek az együtthatónak a bővülését összegként írhatjuk fel

r jk = l 1 b 1j b 1k + l 2 b 2j b 2k + ... + l m b mj b mk , (5.29)

minden m főkomponens hozzájárulása ahhoz.

Így az (5.28) és (5.29) képletekből jól látható, hogy minden főkomponens az egyes kezdeti jellemzők varianciájának egy bizonyos részét és ezek kombinációinak korrelációs együtthatóját írja le.

Figyelembe véve, hogy a b ij sajátvektorok normalizált alakjának elemei egyszerű összefüggéssel (5.25) viszonyulnak az a ij terhelésekhez, az (5.26) kiterjesztést a terhelések sajátvektoraival is felírhatjuk. R = AA", amely úgy is ábrázolható

R = egy 1 a 1" + a 2 a 2" + a 3 a 3" + ... + a m a m" , (5.30)

azok. mint az m főkomponens mindegyikének hozzájárulásának összege. Ezen hozzájárulások mindegyike a i a i" mátrixként írható fel

A i1 2 a i1 a i2 a i1 a i3 ... a i1 a im

a i1 a i2 a i2 2 a i2 a i3 ... a i2 a im

a i a i"= a i1 a i3 a i2 a i3 a i3 2 ... a i3 a im , (5.31)

... ... ... ... ...

a i1 a im a i2 a im a i3 a im ... a im 2

amelyek átlóira a ij 2 kerül - a j-edik kezdeti jellemző varianciájához való hozzájárulás, és az átlón kívüli a ij a ik elemek - hasonló hozzájárulások a j-edik és k- korrelációs együtthatóhoz. th jellemzői.

Részvény