T-test împerecheat versus nepereche
On ianuarie 31, 2021 by adminSă presupunem că am 20 de șoareci. Împerechem șoarecii într-un fel, astfel încât să obțin 10 perechi. În scopul acestei întrebări, ar putea fi o împerechere aleatorie, SAU ar putea fi o pereche sensibilă, cum ar fi încercarea de a împerechea șoareci din aceeași așternut, de același sex, cu o greutate similară, SAU ar putea fi o împerechere deliberat stupidă ca încercând să împerecheați șoareci cu greutăți cât se poate de inegale. Apoi folosesc numere aleatorii pentru a atribui câte un mouse în fiecare pereche grupului de control și celălalt mouse grupului care urmează a fi tratat. Acum fac experimentul, tratând doar șoarecii care urmează a fi tratați, dar altfel nu acordă nicio atenție în niciun fel aranjamentelor tocmai făcute.
Când cineva vine să analizeze rezultatele, s-ar putea folosi fie t-nepereche testarea sau testarea t asociată. În ce fel, dacă există, răspunsurile vor diferi? (Mă interesează practic diferențele sistematice ale oricărui parametru statistic care trebuie estimat.)
Motivul pentru care întreb acest lucru este că o lucrare cu care am fost recent implicată a fost criticată de un biolog pentru că a folosit o pereche T-test, mai degrabă decât un T-test nepereche. Desigur, în experimentul real, situația nu a fost la fel de extremă ca situația pe care am schițat-o și există, în opinia mea, motive întemeiate pentru împerechere. Dar biologul nu a fost de acord.
Mi se pare că nu este posibilă îmbunătățirea incorectă a semnificației statistice (scăderea valorii p), în circumstanțele pe care le-am schițat, folosind un test t asociat , mai degrabă decât un test nepereche, chiar dacă este nepotrivit să se asocieze. Cu toate acestea, ar putea agrava semnificația statistică dacă șoarecii ar fi rău împerecheați. Este corect?
Răspuns
Sunt de acord cu punctele pe care atât Frank, cât și Peter le fac, dar cred că există o formulă simplă care ajunge la centrul problemei și poate fi util pentru OP să ia în considerare.
Fie $ X $ și $ Y $ să fie două variabile aleatorii a căror corelație este necunoscută.
Fie $ Z = XY $
Care este varianța $ Z $?
Iată formula simplă: $$ \ text {Var} (Z) = \ text {Var} (X) + \ text {Var} (Y) – 2 \ text {Cov }(X Y). $$ Ce se întâmplă dacă $ \ text {Cov} (X, Y) > 0 $ (adică, $ X $ și $ Y $ sunt corelate pozitiv)?
Apoi $ \ text {Var} (Z) \ lt \ text {Var} (X) + \ text {Var } (Y) $. În acest caz, dacă asocierea se face datorită corelației pozitive, cum ar fi atunci când aveți de-a face cu același subiect, înainte și după intervenție, asocierea ajută, deoarece diferența independentă asociată are varianță mai mică decât varianța pe care o obțineți pentru cazul nepereche. Metoda a redus varianța. Testul este mai puternic. Acest lucru poate fi arătat dramatic cu date ciclice. Am văzut un exemplu într-o carte în care voiau să vadă dacă temperatura din Washington DC este mai mare decât în New York. Așadar, au luat temperatura medie lunară în ambele orașe timp de 2 ani. Desigur, există o diferență uriașă pe parcursul anului din cauza celor patru sezoane. Această variație este prea mare pentru ca un test t nepereche să detecteze o diferență. Cu toate acestea, asocierea bazată pe aceeași lună din același an elimină acest efect sezonier, iar testul asociat $ t $ a arătat în mod clar că temperatura medie în DC a avut tendința de a fi mai mare decât în New York. $ X_i $ (temperatura la NY în luna $ A $) și $ Y_i $ (temperatura în DC în luna $ A $) sunt corelate pozitiv, deoarece anotimpurile sunt aceleași în NY și DC, iar orașele sunt suficient de apropiate încât să fie deseori experimentați aceleași sisteme meteorologice care afectează temperatura. DC poate fi puțin mai cald, deoarece este mai la sud.
Rețineți că cu cât este mare covarianța sau corelația cu atât este mai mare reducerea varianței.
Acum presupunem că $ \ text {Cov} (X, Y) $ este negativ.
Apoi $ \ text {Var} (Z) \ gt \ text {Var} (X) + \ text {Var} (Y) $. Acum împerecherea va fi mai proastă decât neperecherea, deoarece varianța este de fapt crescută!
Când $ X $ și $ Y $ sunt necorelate, probabil că nu contează ce metodă utilizați . Cazul de asociere aleatorie a lui Peter este similar cu această situație.
Comentarii
- Michael, deoarece ” < ” și ” > ” au semnificații speciale pe paginile web, pentru a evita ca porțiunile mari de text să dispară pur și simplu din vizualizarea dvs., este esențial utilizați $ \ TeX $ marcaj pentru ele în ecuații (codurile sunt ” \ lt ” și ” \ gt ” respectiv). Am marcat cele două ecuații care v-au cauzat această problemă.În viitor, vă rugăm să citiți ce postați imediat după ce ați postat-o pentru a vă asigura că oamenii văd ceea ce ați crezut că vor vedea și apoi nu ezitați să vă semnalizați postarea pentru atenția moderatorului dacă există o problemă cu marcajul.
- @whuber Vă mulțumim. În general verific în timpul și după postare, deoarece consider că deranjez foarte mult ecuațiile, mai ales când subscriu. Lipsirea acestuia este neobișnuită și probabil că s-a întâmplat pentru că a fost o postare lungă și pur și simplu am trecut nepăsător la altceva pe care mi-l doream sau trebuia să fac. Uneori, un telefon mă distrage și uit să verific. În ceea ce privește simbolurile speciale care fac ca textul să dispară într-o postare, am observat că. Cred că o soluție simplă este să vă asigurați că lăsați un spațiu după simbol. Cred că asta a funcționat pentru mine în trecut.
- +1, într-adevăr la punct. Rețineți că dacă $ X $ & $ Y $ sunt perfect necorelate în eșantionul dvs. , $ \ text {Var} (Z) = \ text {Var} (X) + \ text {Var} (Y) $.
- @MichaelChernick Pentru cazul în care Cov (X, Y) < 0, am un întrebare: Dacă scopul meu este de a deduce E [X] -E [Y] din experimentul meu, atunci CHIAR dacă am realizat un studiu asociat, atunci când îmi analizez datele, pot PRETEND că rezultatul experimentului meu este o realizare a randomizat NEPARE experiment. Pot sa fac asta? Deoarece dacă ați făcut cu adevărat un experiment aleatoriu nepereche, puteți obține literalmente același rezultat. Apoi, pot să iau media fiecărui grup (să ignor lucrurile de asociere) și să iau diferența dintre cele două grupuri. Acesta este un estimator imparțial al lui E [Z]. Pentru varianța estimatorului meu, folosesc doar …
- @MichaelChernick eșantionul varianței grupului X și grupului Y și le însumăm
Răspuns
Mai degrabă decât împerecherea, este probabil mai bine să înțelegem modelul de date care stă la baza acestuia. Dacă împerecherea se face pentru a face față eterogenității necontrolate, se întâmplă de obicei (cu excepția studiilor cu gemeni) că împerecherea controlează doar parțial această sursă de variabilitate și regresia multiplă ar face mai bine. Acest lucru se datorează faptului că potrivirea variabilelor continue are ca rezultat frecvent variabilitatea reziduală din cauza neputinței de a face potrivirea exactă a acestor variabile.
Comentarii
- Dacă ar trebui ca toți să facă regresie, de ce cărțile despre proiectarea experimentală, precum cartea lui David Cox ‘, subliniază importanța asocierii sau grupării în experimentele biologice? Împerecherea evită presupunerea ascunsă a dependenței liniare implicată în regresie. Dar poate există și alte motive: cineva ??
Răspunde
Cele două teste (asociată și nepereche) întreabă întrebări diferite, astfel încât să poată obține răspunsuri diferite. Împerecherea corectă aproape întotdeauna este mai puternică decât nepereche – acesta este cu adevărat punctul de asociere. Deci, din moment ce spuneți că asocierea este corectă, este probabil ca valoarea p pentru testul asociat să fie mai mică decât pentru aceleași date nepereche. Ați putea, desigur, să le faceți pe amândouă și să vedeți singur.
Prin urmare, răspunsul la dilema dvs. este de fond, nu statistic. Este corectă asocierea?
Ați putea obține o mai mare rezultat semnificativ din asocierea aleatorie decât dintr-un test nepereche? Să vedem:
set.seed(2910110192) x <- rnorm(100, 10, 2) y <- rnorm(100, 10, 2) t.test(x, y) t.test(x, y, paired = T)
Da poți, deși aici diferența este foarte mică, perechea avea un p mai mic. Am rulat acel cod de mai multe ori. Nu este surprinzător că uneori un p este mai mic, alteori celălalt, dar diferența a fost mică în toate cazurile. Cu toate acestea, sunt sigur că în unele situații diferența dintre valorile p ar putea fi mare.
Comentarii
- Vă mulțumim pentru răspuns, dar întrebarea mea a fost pusă pentru diferențe sistematice . Evident, într-o perioadă lungă de x ‘ s și y ‘ s, x și y arata ocazional ca și cum ar fi foarte bine împerecheați și, ocazional, ca și cum ar fi fost în mod deliberat împerecheați prost. Cu siguranță, ‘ este o întrebare statistică dacă, alegând aleatoriu x și y, distribuția valorilor p este aceeași la cele două teste. Presupun că nu ar trebui să ‘ să fie prea dificil pentru cineva care cunoaște mai multe statistici teoretice decât mine pentru a calcula efectiv cele două distribuții teoretice ale valorilor p. Presupun că este același lucru.
- În cazul în care am fost implicat, valoarea p pentru nepereche a fost în jur de .04 și pentru .001. Potrivit biologului critic, ar trebui să cităm 0,04. Potrivit meu, îmbunătățirea valorii p indică cu tărie că asocierea noastră a fost validă. Susțin că există o întrebare obiectivă în statistici aici, cu un răspuns obiectiv, și că ‘ nu este doar o chestiune de bună judecată biologică în ceea ce privește validitatea perechii particulare – -acea din urmă pare a fi opinia lui Peter Flom și a biologului critic.
- Cred că statisticile spun povestea.Ambele rezultate ar trebui să fie dezvăluite, dar atâta timp cât datele sunt corecte și corelația poate fi explicată, testul asociat este mai precis, deoarece ține cont de corelație.
Răspuns
Acum înțeleg mult mai bine ce mă îngrijora în legătură cu testele t asociate cu cele nepereche și cu valorile p asociate. Descoperirea a fost o călătorie interesantă și au fost multe surprize pe parcurs. O surpriză a rezultat dintr-o investigație a contribuției lui Michael. Acest lucru este ireproșabil în ceea ce privește sfaturile practice. Mai mult, el spune ceea ce cred că cred toți statisticienii și are mai multe voturi pozitive pentru a susține acest lucru. Cu toate acestea, ca o piesă de Teoria, nu este literalmente corectă. Am descoperit acest lucru elaborând formulele pentru valorile p și apoi gândindu-mă cu atenție cum să folosesc formulele pentru a conduce la contraexemple. Eu sunt un matematician prin instruire și contra-exemplu este un contraexemplu al „matematicianului”. Nu este ceva pe care l-ați întâlni în statistici practice, dar a fost tipul de lucru despre care încercam să aflu când mi-am întrebat originalul întrebare.
Iată codul R care oferă contraexemplul:
vLength <- 10; meanDiff <-10^9; numSamples <- 3; pv <- function(vLength,meanDiff) { X <- rnorm(vLength) Y <- X - meanDiff + rnorm(vLength,sd=0.0001) Paired <- t.test(X,Y,var.equal=T,paired=T) NotPaired <- t.test(X,Y,var.equal=T,paired=F) c(Paired$p.value,NotPaired$p.value,cov(X,Y)) } ans <- replicate(numSamples,pv(vLength,meanDiff))
Rețineți următoarele caracteristici: X și Y sunt două 10-tuplă a căror diferență este imensă și foarte aproape constantă. Pentru multe cifre semnificative, corelația este de 1.000 …. Valoarea p pentru testul nepereche este de aproximativ 10 ^ 40 de ori mai mică decât valoarea p pentru testul asociat. Așa că acest lucru contrazice relatarea lui Michael, cu condiția ca cineva să-i citească textul literal, în stil matematician. Aici se încheie partea răspunsului meu legată de răspunsul lui Michael.
Iată gândurile îndemnate de Răspunsul lui Peter. În timpul discuției despre întrebarea mea inițială, am conjecturat într-un comentariu că două distribuții particulare ale valorilor p care sună diferit sunt de fapt aceleași. Acum pot dovedi acest lucru. Ceea ce este mai important este că dovada dezvăluie natura fundamentală a unei valori p, atât de fundamentală încât niciun text (pe care l-am întâlnit) nu se deranjează să explice. Poate că toți statisticienii profesioniști cunosc secretul, dar pentru mine, definiția valorii p mi s-a părut întotdeauna ciudată și artificială. Înainte de a oferi secretul statisticianului, permiteți-mi să specific întrebarea.
Permiteți $ n > 1 $ și alegeți aleator și independent două $ n $ aleatorii – tupluri dintr-o anumită distribuție normală. Există două moduri de a obține o valoare p din această alegere. Una este să folosești un test t nepereche, iar celălalt este să folosești un test t asociat. Conjectura mea a fost că distribuția lui p -valorile pe care cineva le primește sunt aceleași în cele două cazuri. Când am început să mă gândesc la asta, am decis că această conjectură a fost prostească și a fost falsă: testul nepereche este asociat cu o statistică t pe $ 2 (n-1 ) $ grade de libertate și testul asociat la o statistică t pe $ n-1 $ grade de libertate. Aceste două distribuții sunt diferite, deci cum ar putea fi distribuțiile asociate ale valorilor p? M-am gândit mai departe că mi-am dat seama că această respingere evidentă a conjecturii mele a fost prea ușoară.
Răspunsul vine din următoarele considerații. Să presupunem că $ f: (0, \ infty) \ to (0, \ infty) $ este un pdf continuu (adică integralul său are valoarea unu). O schimbare de coordonate convertește distribuția asociată în distribuția uniformă pe $ [0,1] $. Formula este $$ p = \ int_t ^ \ infty f (s) \, ds $$ și acest lucru este explicat în multe texte. Ceea ce textele nu reușesc să sublinieze în contextul valorilor p este că aceasta este exact formula care dă valoarea p din statistica t, când $ f $ este pdf pentru t -distribuirea. (Încerc să mențin discuția cât de simplă pot, pentru că este într-adevăr simplă. O discuție mai completă ar trata testele unilaterale și cele două fețe ușor diferite, ar putea apărea factori de 2 și statistica t s-ar putea să fie în $ (- \ infty, \ infty) $ în loc de $ [0, \ infty) $. Omit tot acel dezordine.)
Exact aceeași discuție se aplică la găsirea valorii p asociat cu oricare dintre celelalte distribuții standard din statistici. Încă o dată, dacă datele sunt distribuite aleatoriu (de data aceasta în funcție de o distribuție diferită), atunci valorile p rezultate vor fi distribuite uniform în $ [0,1] $.
Cum se aplică acest lucru testelor noastre t asociate și neperecheate? Punctul este în testul t asociat, cu eșantioane alese independent și aleatoriu, ca în codul meu de mai sus, valoarea t urmează într-adevăr o distribuție t (cu $ n-1 $ grade de libertate). Deci valorile p care rezultă din replicarea alegerii lui X și Y de multe ori urmează distribuția uniformă pe $ [0,1] $. Același lucru este tr Pentru testul t nepereche, de această dată distribuția t are 2 $ (n-1) $ grade de libertate. Cu toate acestea, valorile p care rezultă au, de asemenea, o distribuție uniformă pe $ [0,1] $, prin argumentul general pe care l-am dat mai sus.Dacă codul lui Peter de mai sus este aplicat pentru a determina valorile p, atunci obținem două metode distincte de extragere a unui eșantion aleatoriu din distribuția uniformă pe $ [0,1] $. Cu toate acestea, cele două răspunsuri nu sunt independente.
Comentarii
- Nu cred că ‘ nu cred că valoarea p are secrete misterioase. Unele persoane au un este o probabilitate de a observa o valoare ca fiind extremă sau mai extremă decât cea observată de fapt atunci când ipoteza nulă este ADEVĂRATĂ. Cred că ai avut acel drept într-una dintre formulele tale. Cred că ai afirmat că p- valorile sunt distribuite uniform. Da, sunt de acord cu asta atunci când ipoteza nulă este adevărată. Rețineți că, cu testul t, ipoteza nulă poate să nu fie adevărată. Atunci valoarea p nu este uniformă. Ar trebui să fie concentrată mai aproape de 0.
- În al doilea rând vorbim despre două statistici de testare diferite. Una se bazează pe împerechere și una nu în exemplul dvs. Dacă am menționat-o în răspunsul meu sau nu testul t nepereche are o distribuție centrală t cu 2n-2 grade de libertate în timp ce distribuția corespunzătoare t pentru testul t asociat are n-1 grade de libertate. Deci, cel cu un număr mai mare de grade de libertate este mai aproape de distribuția normală standard decât celălalt. Contează asta atunci când aplicați aceste teste datelor reale? Nu! Nu atunci când n este destul de mare.
- Ca o notă laterală, o limitare a testului asociat necesită o dimensiune egală a eșantionului, pe care ar trebui să o aveți dacă toate datele pot fi asociat. Dar testul nepereche este valabil cu dimensiuni de eșantion inegale. Deci, în general, testul nepereche are n + m-2 grade de libertate.
- Răspunsul dvs. este lung și abstract și am încercat să trec prin el, dar nu am făcut ‘ nu înțeleg contraexemplul. Doar nu ‘ nu văd unde țineți cont de ipoteza nulă și de datele reale. Valoarea p observată este integralul distribuției t adecvate pentru statistica testului, date fiind datele. Comparați aceste numere pentru cele două distribuții t și același set de date comun. Dacă vă bazați pe datele observate, aceste distribuții uniforme nu joacă niciun rol. Îmi pare rău, dar nu ‘ nu văd că răspunsul dvs. răspunde cu adevărat la întrebarea dvs.
- Michael: concentrați-vă doar pe codul R pe care l-am dat. Durează doar o secundă pentru a alerga. Ipoteza nulă este că X și Y provin din aceeași distribuție normală, ceea ce este, desigur, extrem de fals în cazul meu. În exemplul meu Cov (X, Y) > 0 și totuși testul nepereche dă mai multă semnificație decât testul asociat.
Răspunde
Aș oferi o altă perspectivă. Adesea, împerecherea se face și reduce prejudecățile. Să presupunem că sunteți interesat dacă expunerea E este un factor de risc pentru un rezultat continuu Y. Pentru fiecare subiect E +, primiți un subiect asociat vârstei și sexului care este E-. Acum, am putea face fie un test t asociat, fie un test t nepereche. Cred că ar trebui să explicăm potrivirea în mod explicit și să efectuăm un test t asociat. Este mai principial prin faptul că ține cont de proiectare. Dacă se ia în considerare potrivirea în analiză este o problemă a compromisului de părtinire-varianță. Contabilitatea potrivirii în analiză oferă mai multă protecție împotriva părtinirii, dar poate crește varianța. Efectuarea unui test t nepereche poate fi mai eficientă, dar nu ar oferi nicio protecție împotriva părtinirii.
Lasă un răspuns