Markov kæde

I matematik er en Markov-kæde en diskret tid Markov-proces eller kontinuerlig tid og et diskret tilstandsrum. En Markov-proces er en stokastisk proces, der besidder Markov-egenskaben  : informationen, der er nyttig til at forudsige fremtiden, er helt indeholdt i den nuværende tilstand af processen og er ikke afhængig af tidligere tilstande (systemet har ingen "hukommelse"). Markov-processer er opkaldt efter deres opfinder, Andrei Markov .

En diskret tid Markov-processen er en sekvens af tilfældige variable med værdier i staten rum , som vi vil bemærke i det følgende. Værdien er i øjeblikket processtilstanden. De applikationer, hvor tilstandsrummet er endeligt eller tælleligt, er utallige: man taler derefter om Markov- kæder eller om Markov-kæder med diskret tilstandsrum . De væsentlige egenskaber ved generelle Markov-processer , for eksempel gentagelses- og ergodicitetsegenskaber , kan angives eller bevises mere simpelt i tilfælde af Markov-kæder med diskret tilstand . Denne artikel vedrører netop Markov-kæderne med et diskret statsrum .

Andrei Markov offentliggjorde de første resultater om endelige statsrum Markov-kæder i 1906 . En generalisering til et utalligt uendeligt statsrum blev offentliggjort af Kolmogorov i 1936 . Markov processer er relateret til Brownsk bevægelse og den ergodic hypotese , to emner af statistiske fysik , der var meget vigtigt i begyndelsen af det XX th  århundrede .

Svag Markov-ejendom

Definitioner

Dette er den karakteristiske egenskab ved en Markov-kæde: forudsigelsen af ​​fremtiden fra nutiden gøres ikke mere præcis af yderligere informationer om fortiden, fordi al den information, der er nyttig til forudsigelsen af ​​fremtiden, er indeholdt i den nuværende tilstand af processen. Den svage Markov-egenskab har flere ækvivalente former, som alle svarer til at observere, at den betingede lov om at kende fortiden, dvs. at kende kun er en funktion af :

En almindelig variant af Markov-kæder er den homogene Markov-kæde , for hvilken sandsynligheden for overgangen er uafhængig af  :

I resten af ​​artiklen vil kun homogene Markov-kæder blive taget i betragtning. For en interessant anvendelse af ikke- homogene Markov-kæder til kombinatorisk optimering , se artiklen Simuleret annealing . Der er en stærk Markov-egenskab , der er knyttet til forestillingen om stoptid  : Denne stærke Markov-egenskab er afgørende for beviset for vigtige resultater (forskellige gentagelseskriterier, stærk lov for stort antal for Markov-kæder). Det fremgår af artiklen "  Markov ejendom  ".

Kriterium

Grundlæggende kriterium  -  Lad være en sekvens af uafhængige tilfældige variabler med samme lov med værdier i et mellemrum og enten et målbart kort over i Antag at sekvensen er defineret af gentagelsesrelationen: og antag, at sekvensen er uafhængig af Then er en homogen Markov-kæde.

Eksempel: problemet med klistermærkesamleren  :

Petit Pierre samler portrætterne af de elleve spillere fra det nationale fodboldhold, som han finder på klistermærker inde i emballagen til chokoladestængerne; hver gang han køber en tablet, har han 1 til 11 chance for at finde portrættet af spiller nr. (for alt ). Bemærk status for Pierre Petit-samlingen efter åbning af emballagen til dens e- chokoladestang. er en Markov-kæde startende fra , fordi den passer i den forrige ramme for valget siden hvor de tilfældige variabler er uafhængige og ensartede tilfældige variabler på  : de er de successive tal for vignetterne trukket fra chokoladestængerne. Den gennemsnitlige tid, der kræves for at fuldføre samlingen (her det antal tabletter, som Petit Pierre skal købe i gennemsnit til at fuldføre sin samling) er for en samling af vignetter i alt, hvor er det th harmoniske nummer . For eksempel chokoladebarer.

Bemærkninger:

Overgangssandsynligheder

Definition

Definition  -  Nummeret kaldes sandsynligheden for tilstand- til- tilstand-overgang i et trin eller sandsynligheden for tilstand- til- stat-overgang, hvis der ikke er tvetydighed. Vi noterer ofte dette nummer

Familienumre kaldes overgangsmatrix , overgangskernen eller overgangsoperatøren af Markov-kæden.

Terminologien overgang matrix er den mest anvendte, men det er hensigtsmæssigt, strengt taget, kun når, for et helt tal Hvornår er endelig, for eksempel af cardinal kan man altid nummer elementerne i vilkårligt fra 1 til hvad indstiller problemet, men ufuldkomment, fordi denne omnummerering er kontraintuitiv i mange eksempler.

Ehrenfest-model: de to hunde og deres lopper:

To hunde deler lopper som følger: i hvert øjeblik vælges en af lopperne tilfældigt og hopper derefter fra en hund til en anden. Systemets tilstand er beskrevet af et element, hvor

Det har også elementer, men at nummerere dem fra 1 til ville være akavet at følge systemets udvikling, som består i at vælge en af koordinaterne tilfældigt og ændre dens værdi. Hvis vi vil forstå systemet mindre detaljeret (fordi vi ikke er i stand til at genkende en chip fra en anden), kan vi simpelthen studere antallet af chips på hund nr. 1, hvilket svarer til at vælge igen, for forståelse ville det være en skam at omnummerere staterne fra 1 til Bemærk at til denne nye modelisering, da f.eks. antallet af chips på bagsiden af ​​hund nr. 1 går fra k til k-1, hvis det er en af ​​disse k- chips, der vælges til at hoppe, blandt de N- chips, der er til stede i "systemet". Denne model omtales oftere som “  Ehrenfest Urns Model  ”. Det blev introduceret i 1907 af Tatiana og Paul Ehrenfest for at illustrere nogle af de "paradokser", der opstod i fundamentet for den spirende statistiske mekanik, og for at modellere lyserød støj . Den Ehrenfest urne model blev behandlet af matematiker Mark Kac at være "nok en af de mest instruktive modeller i alle fysik."

I stedet for at nummerere staterne fra 1 er det derfor i mange tilfælde mere ergonomisk at acceptere endelige eller uendelige matricer, hvis rækker og kolonner er "nummererede" ved hjælp af elementerne i Produktet af to sådanne "matricer", og defineres derefter meget naturligt ved analogt med den mere klassiske formel for produktet af to kvadratiske matricer af størrelse

Ejendomme

Proposition  -  Overgangsmatrixen er stokastisk  : summen af ​​vilkårene for en række giver altid 1.

Proposition  -  Loven i Markov-kæden er kendetegnet ved parret, der består af dets overgangsmatrix og dets oprindelige lov (loven om ): for al den fælles lovgivning er givet af

Demonstration

Ved induktion, på rang 0,

I rækken ved at stille i kraft af den svage Markov-ejendom, så hvis har det forventede udtryk, så også.

Når vi studerer en bestemt Markov-kæde, er dens overgangsmatrix generelt veldefineret og fast i hele undersøgelsen, men den oprindelige lov kan ændre sig under undersøgelsen, og notationerne skal afspejle den oprindelige lov, der overvejes i øjeblikket: hvis i et øjeblik af undersøgelsen betragter vi en Markov-kæde af indledende fordeling defineret af, så sandsynlighederne noteres, og forventningerne noteres Især hvis vi siger, at Markov-kæden starter fra sandsynlighederne noteres, og forventningerne noteres

Overgangsmatrixens beføjelser

For sandsynligheden for overgang i trin afhænger ikke af  :

Proposition  -  Den overgangsmatricen i trin , er lig med magt th af overgangsmatricen Vi note og

Demonstration

Ved gentagelse. På rang 1 er det en konsekvens af homogeniteten af ​​Markov-kæden, der allerede er nævnt i afsnittet Svag Markov-egenskab  :

Rang eller

Afslutningsvis deler vi de to ekstreme udtryk for denne rækkefølge af lighed med, medmindre dette sidste udtryk er nul, i hvilket tilfælde vi kan definere vilkårligt, derfor f.eks. Lig med

Ved en simpel anvendelse af den samlede sandsynlighedsformel udleder vi de marginale love i Markov-kæden.

Korollar  -  Loven om er givet ved

I særdeleshed,

I matrixskrivning, hvis loven om betragtes som en linie-vektor med den omformuleres til:

Klassificering af stater

For vi siger, at det er tilgængeligt fra hvis og kun hvis det eksisterer sådan, at vi betegner:

Vi siger det og kommunikerer, hvis og kun hvis de eksisterer sådan, og vi betegner:

Forholdet til kommunikation , bemærket er en ækvivalensrelation . Når vi taler om klasse, når vi taler om staterne i en Markov-kæde, er det generelt til ækvivalensklasser for den relation , vi henviser til. Hvis alle stater kommunikerer, siges Markov-kæden at være irreducerbar .

Forholdet til at være tilgængeligt , betegnet, strækker sig til ækvivalensklasser: for to klasser, og det har vi

Forholdet er en ordenforhold mellem ækvivalensklasser.

En klasse siges at være endelig, hvis den ikke fører til nogen anden, dvs. hvis klassen er minimal for forholdet, ellers siges den at være forbigående . At høre til en endelig eller forbigående klasse har konsekvenser for de probabilistiske egenskaber ved en tilstand i Markov-kæden, især på dens status som en tilbagevendende tilstand eller en forbigående tilstand . Antallet og karakteren af ​​de afsluttende klasser dikterer strukturen for sæt af stationære sandsynligheder , som nøjagtigt opsummerer den asymptotiske opførsel af Markov-kæden, som det kan ses i det næste afsnit og i de to eksempler, der er beskrevet i slutningen af ​​denne side.

Er

Den periode af en stat er GCD af sættet. Hvis to stater kommunikere, de har samme periode: Vi kan derfor tale om den periode af en klasse af stater. Hvis perioden er 1, siges klassen at være aperiodisk . Aperiodiciteten af ​​tilstandene i en Markov-kæde betinger konvergensen af ​​loven mod den stationære sandsynlighed, se siden Stationær sandsynlighed for en Markov-kæde .

Klassificeringen af ​​stater og deres periode kan let læses på Markov-kædediagrammet . Men hvis alle elementerne i overgangsmatrixen er strengt positive, er Markov-kæden irreducerbar og aperiodisk: tegning af grafen for Markov-kæden er overflødig.

Stationær lov

Definition

Der kan være en eller flere målinger på tilstandsrummet såsom: eller endda

En sådan måling kaldes en stationær måling . Et stationært mål er en egenfunktion af transponeringen af ​​overgangsmatrixen, der er knyttet til egenværdien 1. Det kaldes stationær sandsynlighed eller stationær lov, hvis den opfylder de yderligere betingelser:

Udtrykket "  stationær  " er begrundet i følgende forslag:

Proposition  -  Hvis den oprindelige lov i Markov-kæden (dvs. loven om ) er en stationær sandsynlighed, så er loven for alle stadig

Demonstration

Dette følger af egenskaberne for kræfterne i overgangsmatrixen givet ovenfor: loven μ n af X n udtrykkes som en funktion af loven μ 0 af X 0 som følger: eller medfører

Mere generelt er Markov-kæden en stationær proces, hvis og kun hvis dens oprindelige lov er en stationær sandsynlighed .

Eksistens og unikhed

I tilfælde af Markov-kæder med diskret tilstand bestemmer visse egenskaber ved processen, om der er en stationær sandsynlighed eller ej, og om den er unik eller ej:

Hvis en Markov-kæde har mindst en positiv tilbagevendende tilstand, er der en stationær sandsynlighed. Hvis der er en stationær sandsynlighed sådan , at tilstanden er positiv tilbagevendende, og omvendt.

Sætning  -  Hvis en Markov-kæde kun har en endelig klasse, er der højst en stationær sandsynlighed. Vi har derefter ækvivalens mellem de 3 propositioner:

Vi har også ækvivalensen

Denne sætning gælder især for irreducerbare Markov-kæder, da sidstnævnte kun har en klasse (som derfor nødvendigvis er en endelig klasse); især kontrollerer de irreducerbare Markov-kæder

Stærk lov af stort antal og ergodicitet

I tilfælde af en irreducerbar og tilbagevendende positiv Markov- kæde er den stærke lov for et stort antal i kraft: middelværdien af ​​en funktion over forekomsterne af Markov-kæden er lig med dens middel i henhold til dens stationære sandsynlighed. Mere præcist under antagelse vi har næsten helt sikkert  :

Gennemsnittet af værdien af ​​forekomsterne er derfor på lang sigt lig med forventningen i henhold til den stationære sandsynlighed. Især denne ækvivalens om midlerne gælder, hvis er indikatorfunktion af en delmængde af tilstandsrummet:

Dette gør det muligt at nærme sig den stationære sandsynlighed ved hjælp af den empiriske fordeling (som er et histogram konstrueret ud fra en bestemt sekvens), som i tilfældet med tilfældig gang med barriere .

Især hvis processen bygges ved at tage den stationære sandsynlighed som den oprindelige lov, defineres skiftet af bevarer foranstaltningen, hvilket gør Markov-kæden til et målt dynamisk system . Den stærke lov om stort antal resulterer i, at Markov-kæden er et ergodisk dynamisk system . Ergodicitet er både stærkere end den stærke lov for store tal, fordi vi for eksempel kan udlede, at der har en næsten bestemt grænse, men det er også svagere, fordi det i princippet kræver Markov-kædens stationaritet, hvilket ikke er tilfældet med den stærke lov af stort antal.

Konvergens mod den stationære lov

Hvis Markovkæde er irreducible , positiv tilbagevendende og aperiodisk, derefter konvergerer til en matrix, som hver række er den unikke stationære fordeling Især loven af konvergerer til uafhængigt af den oprindelige lov I tilfælde af et tilstandsrum færdig, dette er bevist af Perron-Frobenius sætningen . Bemærk, at det er naturligt, at sekvensen, der er defineret ved induktion af forholdet , muligvis for at begrænse et fast punkt for denne transformation, dvs. en opløsning af ligningen

Endelig tilstand plads Markov kæder

Hvis en Markov-kæde er irreducerbar, og hvis dens tilstandsrum er endelig, er alle dens tilstande positive tilbagevendende. Den stærke lov med stort antal er så gældende.

Mere generelt er alle elementerne i en endelig endelig klasse positive tilbagevendende, uanset om tilstandsrummet er endeligt eller uendeligt tælleligt.

Kvasistationelle fordelinger af en absorberet Markov-kæde

Lad være en Markov-kæde over sæt af naturlige tal . Antag, at tilstand 0 absorberer og kæden absorberes næsten 0. Lade være absorptionen tid på 0. Vi siger, at en sandsynlighed på en kvasi-stationær fordeling, hvis for alle og for alle ,

Vi siger, at en sandsynlighed på en Yaglom grænse , hvis for alt og alt ,

En Yaglom-grænse er en kvasi-stationær distribution . Hvis den findes, er Yaglom-grænsen unik. På den anden side kan der være flere kvasi-stationære distributioner.

Hvis der er en kvasi-stationær fordeling, så findes der et reelt antal sådan, at .

Bedømmelse

I ovenstående formler er elementet ( ) sandsynligheden for overgangen fra til . Summen af ​​elementerne i en række er altid lig med 1, og den stationære fordeling gives af venstre egenvektor i overgangsmatrixen.

Nogle gange støder vi på overgangsmatricer, hvor udtrykket ( ) er sandsynligheden for overgang fra til , i hvilket tilfælde overgangsmatricen simpelthen er transponeret af det, der er beskrevet her. Summen af ​​elementerne i en søjle er derefter værd 1. Desuden gives den stationære fordeling af systemet af højre egenvektor i overgangsmatrixen i stedet for den venstre egenvektor.

Eksempel: Hamster Doudou

Hamsteren Doudou kender kun tre steder i sit bur: spånerne hvor han sover, føderen hvor han spiser og hjulet hvor han træner. Hans dage ligner hinanden meget, og hans aktivitet er let repræsenteret af en Markov-kæde. Hvert minut kan han enten ændre sin aktivitet eller fortsætte den, han lavede. Navnet proces uden hukommelse er slet ikke overdrevet at tale om Doudou.

Diagrammer

Diagrammer kan vise alle pile, der hver repræsenterer en sandsynlighed for overgang. Det er dog mere læsbart, hvis:

Overgangsmatrix

Overgangsmatricen af dette system er som følger (rækkerne og kolonnerne svarer således til tilstandene repræsenteret i chippen , feeder , hjul graf ):

Prognoser

Lad os antage, at Doudou sover i løbet af undersøgelsens første minut.

Efter et minut kan vi forudsige:

Således er der efter et minut en 90% chance for at Doudou stadig sover, 5% for at han vil spise og 5% for at han løber.

Efter 2 minutter er der en 4,5% chance for, at hamsteren spiser.

Generelt set i minutter: og

Teorien viser, at sandsynligheden efter en vis tid er uafhængig af den oprindelige lov. Lad os bemærke det  :

Vi opnår konvergens, hvis og kun hvis kæden er aperiodisk og irreducerbar . Dette er tilfældet i vores eksempel, så vi kan skrive:

Når vi ved det, opnår vi:

Doudou bruger derfor 88,4% af sin tid på at sove, 4,42% spiser og 7,18% løber.

Illustration af virkningen af ​​modellen

Det følgende eksempel sigter mod at vise vigtigheden af ​​modellering af systemet. God modellering gør det muligt at besvare komplekse spørgsmål med enkle beregninger.

Vi studerer en (fiktiv) civilisation, der består af flere sociale klasser, og hvor enkeltpersoner kan bevæge sig fra en klasse til en anden. Hvert trin repræsenterer et år. Vi vil overveje en slægt snarere end en person for at undgå at skaffe to hundrede år. Der er fire forskellige sociale statuser:

I dette firma:

For at komplicere eksemplet lidt og således vise omfanget af ansøgningerne fra Markov-kæderne vil vi overveje, at embedsmænd er valgt i flere år. Derfor afhænger fremtiden for en individuel embedsmand af, hvor længe han har været offentlig tjenestemand. Vi er derfor i tilfælde af en ikke-homogen Markov-kæde. Heldigvis kan vi let komme tilbage til en homogen kæde. Faktisk er det tilstrækkeligt at tilføje en kunstig tilstand for hvert år af mandatet. I stedet for at have en stat 4: Officiel , vil vi have en stat:

Sandsynlighederne, der forbinder to på hinanden følgende kunstige tilstande (f.eks. Tredje og fjerde år), har værdi 1, fordi man mener, at ethvert mandat, der startede, slutter (man kunne modellere det modsatte ved at ændre værdien af ​​disse sandsynligheder). Lad os fastsætte mandaternes varighed til to år, hvor kontingenten af ​​embedsmænd kan fornyes med halvdelen hvert år. Vi har derefter følgende graf:

For at modellere valg, der ikke er årlige, ville det også være nødvendigt at tilføje fiktive stater (valgår, et år siden sidste valg osv.).

Matrixen skrives derefter:

Som forklaret ovenfor, angiv overgangssandsynlighederne i trin. Så sandsynligheden for at være i staten efter år for en slægt, der er en del af den sociale klasse . For at vide, hvad der bliver af en slave efter år, er det tilstrækkeligt at skrive:

Hvor er sandsynligheden for at være i den sociale klasse efter år med at vide, at den studerede linje har forladt slavestaten?

Hvis vi kender antallet af hver social klasse i år 0, er det tilstrækkeligt at beregne:

Vi opnår således fordelingen af ​​befolkningen i de forskellige sociale klasser (i slutningen af årene). Ved at gange denne vektor med den samlede størrelse af befolkningen opnår vi størrelsen på hver klasse i slutningen af årene.

Lad os nu stille os følgende spørgsmål: "I slutningen af årene, hvor mange linjer vil der allerede have haft en højtstående embedsmand, der har afsluttet sit mandat?" "

Svaret adskiller sig fra antallet af mandater, der er udført i år, fordi der er mulighed for at blive genvalgt. Det virker vanskeligt at besvare dette spørgsmål (det bør stadig være muligt). Faktisk er det tilstrækkeligt at ændre modelleringen af ​​problemet. Så lad os gå videre til en ny model for at besvare dette spørgsmål. (På den anden side tillader det os ikke at besvare de tidligere spørgsmål, deraf præsentationen af ​​de to modeller.)

Det er tilstrækkeligt at ændre grafen som følger:

Vi tilføjer en absorberende top, fordi når en linje er færdig med et mandat, tages den ikke længere i betragtning.

Hvis nogle læsere er kritiske, kan de sige, at modellen er forkert, fordi linjer med en valgt embedsmand ikke længere deltager i valget. Det er ikke sådan. Antallet af valgte embedsmænd er faktisk proportionalt med antallet af borgere. At ikke genindsætte tidligere højtstående embedsmænd blandt kandidaterne ændrer derfor ikke sandsynligheden for, at en borger bliver valgt, fordi antallet af stillinger, der tilbydes, også er antallet af borgere. Denne model giver dig mulighed for nøjagtigt at besvare det stillede spørgsmål.

Vi har derfor en ny overgangsmatrix:

Ved at udføre de samme beregninger som i de foregående spørgsmål opnår vi i den sidste linje i løsningsvektoren procentdelen af ​​linjer, der har afsluttet mindst et mandat eller antallet (hvis vi ganger med det samlede antal af befolkningen). Med andre ord, at modellere problemet igen gør det muligt at besvare spørgsmålet, der syntes så kompliceret ved en simpel beregning af kræfterne i en matrix.

Ansøgninger

Noter og referencer

Se også

Relaterede artikler

Bibliografi

eksterne links