Párosítva a párosítatlan t-teszttel
On január 31, 2021 by adminTegyük fel, hogy 20 egerem van. Az egereket valamilyen módon párosítom, így 10 pár jut. Ennek a kérdésnek az lehet véletlenszerű párosítás, VAGY ésszerű párosítás, például megpróbálhatunk azonos súlyú, azonos alomból származó, azonos nemű egereket párosítani, VAGY lehet szándékosan ostoba párosítás, mint például megpróbálta az egereket olyan egyenlőtlen súlyokkal párosítani, amennyire csak lehet. Ezután véletlenszerű számok segítségével hozzárendelek egy-egy egeret minden párban a kontroll csoporthoz, a másik egeret pedig a kezelendő csoporthoz. Most elvégzem a kísérletet, és csak a kezelendő egereket kezeltem, de különben nem figyeltem semmit az imént elvégzett intézkedésekre.
Ha valaki az eredmények elemzésére jön, használhat párosítatlan t- tesztelés vagy páros t-tesztelés. Milyen módon különböznek a válaszok, ha vannak ilyenek? (Alapvetően érdekel minden olyan statisztikai paraméter szisztematikus különbsége, amelyet meg kell becsülni.)
Ezért kérdezem, hogy egy közelmúltban közreműködött cikkemet egy biológus bírálta, hogy párosított Természetesen a tényleges kísérletben a helyzet nem volt olyan szélsőséges, mint az általam felvázolt helyzet, és véleményem szerint jó okok voltak a párosításra. De a biológus nem értett egyet.
Úgy tűnik számomra, hogy az általam vázolt körülmények között nem lehet helytelenül javítani a statisztikai szignifikanciát (csökkenteni a p-értéket) egy párosított t-teszt használatával , nem pedig párosítatlan teszt, még akkor is, ha nem megfelelő párosítani. Ez azonban ronthatja a statisztikai szignifikanciát, ha az egerek rosszul párosodnak. Ez így van?
Válasz
Egyetértek Frank és Peter állításával, de úgy gondolom, hogy van egy egyszerű képlet ami a kérdés középpontjába kerül, és érdemes lehet megfontolnia az OP számára.
Legyen $ X $ és $ Y $ két véletlen változó, amelyek összefüggése ismeretlen.
Legyen $ Z = XY $
Mi a (z) $ Z $ szórása?
Itt van az egyszerű képlet: $$ \ text {Var} (Z) = \ text {Var} (X) + \ text {Var} (Y) – 2 \ text {Cov } (X, Y). $$ Mi van, ha $ \ text {Cov} (X, Y) > 0 $ (azaz $ X $ és $ Y $ pozitív korrelációban vannak)?
Ezután $ \ text {Var} (Z) \ lt \ text {Var} (X) + \ text {Var } (Y) $. Ebben az esetben, ha a párosítás pozitív összefüggés miatt jön létre, például amikor ugyanazzal a témával foglalkozik a beavatkozás előtt és után, akkor a párosítás segít, mert a független páros különbség kisebb varianciával rendelkezik, mint a párosítatlan esetre kapott variancia. A módszer csökkentette a szórást. A teszt erősebb. Ezt drámai módon meg lehet mutatni ciklikus adatokkal. Láttam egy példát egy könyvben, ahol azt akarták megtudni, hogy Washington DC-ben magasabb-e a hőmérséklet, mint New Yorkban. Tehát mindkét városban havi átlaghőmérsékletet vettek mondjuk 2 évig. Természetesen óriási különbség van az év folyamán a négy évszak miatt. Ez a variáció túl nagy ahhoz, hogy egy párosítatlan t teszt ne észlelje a különbséget. Ugyanakkor az ugyanabban az évben ugyanazon hónapon alapuló párosítás megszünteti ezt a szezonális hatást, és a párosított $ t $ -teszt egyértelműen megmutatta, hogy a DC átlagos hőmérséklete általában magasabb volt, mint New Yorkban. $ X_i $ (hőmérséklet NY-ben a $ A $ hónapban) és $ Y_i $ (hőmérséklet DC-ben a $ A $ hónapban) pozitív korrelációban vannak, mivel az évszakok New Yorkban és DC-ben megegyeznek, és a városok elég közel vannak ahhoz, hogy gyakran ugyanazokat az időjárási rendszereket tapasztalja, amelyek befolyásolják a hőmérsékletet. A DC kissé melegebb lehet, mert délebb van.
Vegye figyelembe, hogy minél nagyobb a kovariancia vagy a korreláció, annál nagyobb a szórás csökkenése.
Most tegyük fel, hogy a $ \ text {Cov} (X, Y) $ negatív.
Ezután $ \ text {Var} (Z) \ gt \ text {Var} (X) + \ text {Var} (Y) $. Most a párosítás rosszabb lesz, mint ha nem párosítunk, mert a variancia valójában megnő!
Ha a $ X $ és a $ Y $ nincs korrelálva, akkor valószínűleg nem mindegy, hogy melyik módszert használja . Peter véletlenszerű párosítási esete hasonló a helyzethez.
Megjegyzések
- Michael, mert ” < ” és ” > ” speciális jelentése van a weboldalakon, annak elkerülése érdekében, hogy a szöveg nagy sávjai egyszerűen eltűnjenek a látótérből, elengedhetetlen használja a $ \ TeX $ jelölést számukra az egyenletekben (a kódok: ” \ lt ” és ” \ gt “). Jelöltem azt a két egyenletet, amely ezt a problémát okozta az Ön számára.A jövőben kérjük, olvassa el a közzétetteket azonnal a közzététel után, hogy megbizonyosodjon arról, hogy az emberek látják-e azt, amiről azt gondolta, hogy látni fog, majd nyugodtan jelölje meg bejegyzését a moderátor figyelmére, ha valami probléma adódna a jelöléssel.
- @whuber Köszönöm. Általában ellenőrzöm a kiküldetés alatt és után, mert azt tapasztalom, hogy az egyenleteket nagyon elrontom, különösen az előfizetésnél. Ennek hiánya szokatlan és valószínűleg azért történt, mert hosszú bejegyzés volt, és gondatlanul folytattam valami mást, amit meg akartam vagy kellett tennem. Néha egy telefonhívás elvonja a figyelmemet, és elfelejtem ellenőrizni. A speciális szimbólumokkal kapcsolatban, amelyek miatt a szöveg eltűnik a bejegyzésben, ezt megfigyeltem. Szerintem egy egyszerű megoldás az, hogy mindenképpen hagyjon szóközt a szimbólum után. Úgy gondolom, hogy ez a múltban bevált.
- +1, valóban helyben. Vegye figyelembe, hogy ha $ X $ & $ Y $ tökéletesen nincs korrelálva a mintában , akkor $ \ text {Var} (Z) = \ text {Var} (X) + \ text {Var} (Y) $.
- @MichaelChernick Abban az esetben, ha Cov (X, Y) < 0, kérdés: Ha az a célom, hogy E [X] -E [Y] -ra következtessem a kísérletemből, akkor is, bár párosítottam egy vizsgálatot, amikor adataimat elemeztem, akkor is ELŐZHETEM, hogy a kísérletem eredménye a PÁRTALAN randomizált kísérlet. Meg tudom csinálni? Mert ha valóban párosítatlan véletlenszerű kísérletet hajtott végre, szó szerint ugyanazt az eredményt érheti el. Akkor csak meg tudom venni az egyes csoportok átlagát (figyelmen kívül hagyni a párosítási dolgokat), és figyelembe venni a két csoport átlagának különbségét. Ez az E [Z] elfogulatlan becslése. Becslőm varianciája érdekében csak a következőt használom:
- @MichaelChernick az X és Y csoport mintaváltozatai, és összegezem őket
Válasz
A párosítás helyett valószínűleg jobb megérteni az alapul szolgáló adatmodellt. Ha a párosítást az ellenőrizetlen heterogenitás kezelésére végzik, akkor általában az eset áll fenn (ikertanulmányok kivételével), hogy a párosítás csak részben szabályozza ezt a variabilitás forrását, és a többszörös regresszió jobban járna. Ez azért van, mert a folyamatos változókkal való egyeztetés gyakran maradék változékonyságot eredményez, mivel nem lehet pontos egyeztetést végrehajtani az ilyen változókkal.
Megjegyzések
- Ha mindannyian visszafejlődjenek, miért hangsúlyozzák a kísérleti tervezésről szóló könyvek, például David Cox ‘ könyve a párosítás vagy a csoportosítás fontosságát a biológiai kísérletek során? A párosítás elkerüli a regresszióban rejlő lineáris függőség rejtett feltételezését. De talán más okai is vannak: bárki ??
Válasz
A két teszt (páros és páros) megkérdezi különböző kérdéseket, így különböző válaszokat kaphatnak. A helyes párosítás szinte mindig erőteljesebb, mint a párosítatlan – ez valóban a párosítás lényege. Tehát, mivel azt mondod, hogy a párosítás helyes, valószínű, hogy a párosított teszt p-értéke alacsonyabb, mint ugyanazon párosítatlan adat esetén. Természetesen mindkettőt megteheti, és maga is meggyőződhet róla.
Ezért a dilemmára adott válasz érdemi, nem statisztikai. Helyes a párosításod?
Tudna még többet szerezni jelentős eredmény a véletlenszerű párosításból, mint a párosítatlan tesztből? Lássuk:
set.seed(2910110192) x <- rnorm(100, 10, 2) y <- rnorm(100, 10, 2) t.test(x, y) t.test(x, y, paired = T)
Igen, igen, bár itt nagyon kicsi a különbség, a páros egy alsó p. Többször futtattam ezt a kódot. Nem meglepő, hogy néha az egyik p alacsonyabb, néha a másik, de a különbség minden esetben kicsi volt. Biztos vagyok azonban abban, hogy bizonyos esetekben a p értékek közötti különbség nagy lehet.
Megjegyzések
- Köszönöm a választ, de a feltett kérdésem a szisztematikus különbségekért. Nyilvánvaló, hogy x ‘ s és y ‘ s hosszú távon x és y időnként úgy néz ki, mintha nagyon jól párosulnának , és esetenként mintha szándékosan rosszul párosították volna őket. ‘ bizonyára statisztikai kérdés, hogy az x és y véletlenszerű megválasztásakor a p-értékek eloszlása megegyezik-e a két teszten. Feltételezem, hogy annak, aki több elméleti statisztikát tud, mint én, nem kellene túl nehéznek lennie ‘ annak, hogy kiszámítsa a p-értékek két elméleti eloszlását. Azt hiszem, hogy azonosak.
- A tényleges esetben, amelyben részt vettem, a párosítatlanok p-értéke 0,4 és a párosítottak. A kritikus biológus szerint .04-et kell idéznünk. Szerintem a p-érték javulása erősen jelzi, hogy a párosításunk érvényes volt. Azt állítom, hogy a statisztikában van egy objektív kérdés, amelynek objektív válasza van, és hogy ez ‘ nemcsak a megfelelő biológiai megítélés kérdése az adott párosítás érvényességét illetően – – úgy tűnik, ez utóbbi Peter Flom és a kritikus biológus véleménye.
- Azt hiszem, a statisztika mondja el a történetet.Mindkét eredményt közzé kell tenni, de mindaddig, amíg az adatok helyesek és az összefüggés megmagyarázható, a párosított teszt pontosabb, mert figyelembe veszi az összefüggést.
Válasz
Most már sokkal jobban megértem, mi aggasztott a párosított és a párosítatlan t-tesztek és a kapcsolódó p-értékek miatt. A megismerés érdekes út volt, és sok meglepetés érte végig. Az egyik meglepetés Michael közreműködésének vizsgálata következtében történt. Ez gyakorlati tanácsok szempontjából kifogásolhatatlan. Sőt, azt mondja, amit szerintem gyakorlatilag minden statisztikus hisz, és ezt számos előítélettel is alátámasztja. elmélet szerint ez nem szó szerint helyes. Ezt úgy fedeztem fel, hogy kidolgoztam a p-értékek képleteit, majd alaposan átgondoltam, hogyan használhatom a képleteket ellenpéldákhoz. Képzéssel matematikus és az ellenpélda “matematikus” ellenpéldája “. Nem olyasmi, amellyel a gyakorlati statisztikákban találkozhatna, de volt az a fajta dolog, amiről megpróbáltam megtudni, amikor megkérdeztem az eredetimet kérdés.
Itt található az ellenpéldát adó R-kód:
vLength <- 10; meanDiff <-10^9; numSamples <- 3; pv <- function(vLength,meanDiff) { X <- rnorm(vLength) Y <- X - meanDiff + rnorm(vLength,sd=0.0001) Paired <- t.test(X,Y,var.equal=T,paired=T) NotPaired <- t.test(X,Y,var.equal=T,paired=F) c(Paired$p.value,NotPaired$p.value,cov(X,Y)) } ans <- replicate(numSamples,pv(vLength,meanDiff))
Vegye figyelembe a következő tulajdonságokat: X és Y két 10-es szám, amelynek különbsége hatalmas és majdnem állandó. Számos jelentős adat esetében a korreláció 1.000 …. A párosítatlan teszt p-értéke 10 ^ 40-szer kisebb, mint a párosított teszt p-értéke. Tehát ez ellentmond Michael beszámolójának, feltéve, hogy valaki beszámolóját szó szerint, matematikus stílusban olvassa. Itt fejezem be válaszomnak Michael válaszával kapcsolatos részét.
Itt vannak a gondolatok, amelyeket Peter válasza. Eredeti kérdésem megvitatása során egy megjegyzésben sejtettem, hogy a p-értékek két, eloszlásának különböző eloszlása valójában megegyezik. Most ezt be tudom bizonyítani. Ami még fontosabb, hogy a bizonyítás feltárja a p-érték alapvető természete, olyan alapvető, hogy egyetlen szöveg sem (amelyet találkoztam) nem zavarja megmagyarázni. Talán minden hivatásos statisztikus ismeri a titkot, de számomra a p-érték meghatározása mindig furcsának és mesterségesnek tűnt. Mielőtt eladnám a statisztikus titkát, hadd adjam meg a kérdést.
Hagyjuk $ n > 1 $ -ot, és válasszunk véletlenszerűen és egymástól függetlenül két véletlenszerű $ n $ -ot – normál eloszlásból származó számok. Kétféle módon lehet p-értéket kapni ebből a választásból. Az egyik egy párosítatlan t-teszt, a másik pedig egy páros t-teszt használata. Sejtésem szerint a p Az egyik kapott érték ugyanaz a két esetben. Amikor először gondolkodni kezdtem rajta, úgy döntöttem, hogy ez a sejtés bolond és hamis volt: a párosítatlan teszt egy $ 2 (n-1) t-statisztikához kapcsolódik ) $ szabadságfok, és a párosított teszt egy t-statisztikára a $ n-1 $ szabadságfokon. Ez a két eloszlás különbözik, akkor hogyan lehet a földön a p-értékek kapcsolódó eloszlása azonos? Csak sok után gondoltam rá, hogy sejtésem nyilvánvaló elutasítása túl könnyû volt.
A válasz a következõ szempontokból származik: Tegyük fel, hogy $ f: (0, \ infty) \ to (0, \ infty) $ egy folytonos pdf (vagyis integráljának értéke egy). A koordinátaváltás a társított eloszlást átalakítja a $ [0,1] $ egyenletes eloszlásává. A képlet $$ p = \ int_t ^ \ infty f (s) \, ds $$, és ezt sok szöveg elmagyarázza. Amit a szövegek nem tudnak rámutatni a p-értékek összefüggésében, az az, hogy pontosan az a képlet, amely megadja a p-értéket a t-statisztikából, amikor $ f $ a t -terjesztés. (Megpróbálom a lehető legegyszerűbben tartani a vitát, mert valóban egyszerű. A teljesebb vita kissé eltérően kezelné az egy- és kétoldalas t-teszteket, felmerülhetnek a 2-es tényezők, és a t-statisztika előfordulhat, hogy a $ (- \ infty, \ infty) $ -ban rejlik a $ [0, \ infty) $ helyett. Az összes rendetlenséget kihagyom.)
Pontosan ugyanaz a vita érvényes a p-érték megtalálásakor Ismételten, ha az adatokat véletlenszerűen osztjuk szét (ezúttal valamilyen más eloszlás szerint), akkor a kapott p-értékek egyenletesen oszlanak el $ [0,1] $ -ban. / p>
Hogyan vonatkozik ez a párosított és párosítatlan t-tesztjeinkre? A lényeg a párosított t-tesztben van, függetlenül és véletlenszerűen választott mintákkal, mint a fenti kódomban, a t értéke valóban követi a t-eloszlás ($ n-1 $ szabadságfokkal). Tehát az X és Y választásának sokszorosításából származó p-értékek követik a $ [0,1] $ egyenletes eloszlását. ue a párosítatlan t-teszthez, bár ezúttal a t-eloszlás $ 2 (n-1) $ szabadságfokkal rendelkezik. Mindazonáltal az eredményül kapott p-értékek szintén egyenletes eloszlásúak a $ [0,1] $ -on, a fenti általános érv alapján.Ha Peter fenti kódját alkalmazzuk a p-értékek meghatározására, akkor két különböző módszert kapunk egy véletlenszerű minta felvételére a $ [0,1] $ egyenletes eloszlásából. A két válasz azonban nem független.
Megjegyzések
- Nem gondolom, hogy a p-érték rejtélyes titkokkal rendelkezik. Vannak, akiknek van egy nehéz idő vele. Ez annak a valószínűsége, hogy egy értéket exteremnek vagy szélsőségesebbnek figyeljünk meg, mint amit valójában a nullhipotézis IGAZAI esetén figyeltünk meg. Azt hiszem, hogy neked volt ilyen jogod az egyik képletedben. Azt hiszem, kijelentetted, hogy p- az értékek egyenletesen oszlanak el. Igen, ezzel egyetértek, ha a nullhipotézis igaz. Ne feledje, hogy a t-tesztjével a nullhipotézis nem biztos, hogy igaz. Ekkor a p-érték nem egyenletes. Közelebb kell koncentrálni 0-hoz.
- Másodszor két különböző tesztstatisztikáról beszélünk. Az egyik a párosításon alapul, a másik pedig a példádban nem. Akár megemlítettem a válaszomban, akár nem a párosítatlan t tesztnek központi t eloszlása van 2n-2 szabadságfokkal, míg a páros t teszt megfelelő t eloszlásának n-1 szabadságfoka van. Tehát a nagyobb szabadságfokok száma közelebb van a normál normális eloszláshoz, mint a másik. Ez számít, ha ezeket a teszteket valós adatokra alkalmazza? Nem! Nem akkor, ha az n meglehetősen nagy.
- Megjegyzendő, hogy a párosított teszt korlátozása megköveteli az azonos mintaméretet, amire akkor van szükség, ha minden adat párosítható. De a párosítatlan teszt egyenlőtlen mintanagysággal érvényes. Tehát általában a párosítatlan teszt n + m-2 szabadságfokkal rendelkezik.
- A válasza hosszú és absztrakt, és megpróbáltam átgázolni rajta, de nem tettem ‘ nem értem az ellenpéldát. Csak nem látom ‘, hogy hol veszi figyelembe a nullhipotézist és a valós adatokat. A megfigyelt p-érték a vizsgálati statisztika megfelelő t-eloszlásának integrálja, az adatok alapján. Összehasonlítja ezeket a két eloszlás és ugyanazon közös adatsor számát. Ha feltételezi a megfigyelt adatokat, akkor ezek az egyenletes eloszlások nem játszanak szerepet. Sajnálom, de nem látom ‘, hogy a válaszod valóban megválaszolja a kérdésedet.
- Michael: csak az általam megadott R-kódra koncentrálj. Csak egy másodperc kell a futáshoz. A nullhipotézis az, hogy X és Y ugyanabból a normális eloszlásból származik, ami természetesen vadul hamis esetemben. Példámban a Cov (X, Y) > 0, és ennek ellenére a párosítatlan teszt nagyobb jelentőséget ad, mint a párosított teszt.
Válasz
Újabb perspektívát kínálnék. A párosítás gyakran csökkenti az elfogultságot. Tegyük fel, hogy érdekli, hogy az E expozíció kockázati tényező-e a folyamatos Y eredmény kimeneteléhez. Minden E + alany esetében kap egy életkor és nem szerinti egyeztetett alany, aki E-. Most elvégezhetünk páros t-tesztet vagy párosítatlan t-tesztet. Szerintem kifejezetten számolnunk kell az egyezéssel, és párosított t-tesztet kell végeznünk. Elvileg annyiban, hogy figyelembe veszi a dizájnt. Az, hogy figyelembe veszik-e az egyezést az elemzés során, az elfogultság-variancia kompromisszum kérdése. Az egyezés könyvelése az elemzésben nagyobb védelmet nyújt az elfogultság ellen, de növelheti a szórást. A párosítatlan t-teszt elvégzése hatékonyabb lehet, de nem nyújt védelmet az elfogultság ellen.
Vélemény, hozzászólás?