materiale teorico. Modelli statistici

I metodi statistici e probabilistici costituiscono la base metodologica dell'omonimo tipo di modellizzazione. A questo livello di formalizzazione del modello, non stiamo ancora parlando di rivelare la legge che assicura l'eliminazione dell'incertezza nel prendere una decisione, ma esiste una certa serie di osservazioni di questo sistema o del suo analogo, che ci permettono di trarre alcune conclusioni sullo stato passato/attuale/futuro del sistema, basate sull'ipotesi dell'invarianza del suo comportamento.

Come sempre, formuliamo la definizione... Un modello statistico o probabilistico (modello stocastico) è un modello che tiene conto dell'influenza di fattori casuali nel processo di funzionamento del sistema, basato sull'applicazione di metodologie statistiche o probabilistiche in relazione a fenomeni ricorrenti. Questo modello opera con criteri quantitativi nella valutazione di fenomeni ripetitivi e consente di tener conto della loro non linearità, dinamica e perturbazioni casuali, proponendo ipotesi sulla natura della distribuzione di alcune variabili casuali che influenzano il comportamento del sistema sulla base dell'analisi di osservazioni risultati.

In sostanza, i modelli probabilistici e statistici differiscono per il livello di incertezza della conoscenza del sistema modellato che esiste al momento della sintesi del modello. Nel caso in cui le idee sul sistema siano più di natura teorica e si basino esclusivamente su ipotesi sulla natura del sistema e su influenze perturbatrici non supportate dai risultati delle osservazioni, il modello probabilistico è l'unico possibile. Quando, in fase di sintesi del modello, sono già disponibili dati ottenuti empiricamente, diventa possibile rafforzare le ipotesi grazie alla loro elaborazione statistica. Ciò diventa evidente se consideriamo la relazione tra i metodi della statistica matematica e la teoria della probabilità. La statistica matematica è una scienza che studia i metodi per rivelare modelli inerenti a grandi insiemi di oggetti o eventi omogenei, sulla base della loro indagine campionaria (o grandi insiemi di dati ottenuti come risultato dell'osservazione dello stesso oggetto per un periodo di tempo sufficientemente lungo). La teoria della probabilità, d'altra parte, studia i modelli quantitativi seguiti da fenomeni casuali se questi fenomeni sono determinati da eventi di probabilità nota. Di conseguenza, la statistica matematica è un collegamento tra la teoria della probabilità ei fenomeni del mondo reale, poiché consente di formulare stime della probabilità di determinati eventi sulla base dell'analisi di dati statistici.

Si può sostenere che i modelli statistici sono un tipo speciale di modelli matematici che utilizzano come dati di input non solo i dati effettivi sullo stato corrente dell'oggetto, ma anche i dati che caratterizzano lo stato di altri oggetti di questa classe o di questo oggetto, ma a un momento diverso. I modelli statistici sono applicabili allo studio di fenomeni di massa di qualsiasi natura, compresi quelli che non appartengono alla categoria dei determinati probabilisticamente (la statistica matematica è adatta anche per risolvere problemi deterministici). Quando si modella quest'ultimo, il processo statistico viene introdotto artificialmente nel modello per ottenere stime statistiche della soluzione numerica (ad esempio, l'accuratezza della misurazione dei parametri di un processo deterministico).

I metodi della statistica matematica e della teoria della probabilità possono essere introdotti, tra l'altro, nei modelli logico e logico-linguistico, come indicato nel paragrafo precedente. Ad esempio, possono essere presi in considerazione metodi per integrare i punteggi statistici nei modelli di relazione semantica per assegnare pesi diversi agli archi che collegano i singoli vertici. Le valutazioni statistiche possono anche essere introdotte nei sistemi di presentazione dei thesauri per risolvere situazioni di polisemia senza ricorrere a procedure di analisi del contesto. In altre parole, i metodi statistici possono costituire la base di un modello o essere utilizzati per modificare altri tipi di modelli.

Per elaborare i risultati delle osservazioni vengono utilizzati metodi di correlazione, regressione, fattoriale, cluster e altri tipi di analisi, operando con ipotesi statistiche. Qui viene assegnato un ruolo speciale metodo di prova statistico (Metodo Montecarlo ). Questo è un metodo per la soluzione numerica di problemi matematici basato su modelli multipli probabilistici e statistici di variabili o processi casuali al fine di costruire stime statistiche per le quantità desiderate. L'essenza del metodo consiste nell'implementazione della simulazione multipla di un fenomeno casuale utilizzando una determinata procedura che fornisce un risultato casuale. Per fare ciò, utilizzando un computer, viene creato un certo insieme di implementazioni di processi casuali che simulano effetti perturbanti sull'oggetto o processo in studio, dopodiché questo processo o oggetto viene simulato in condizioni determinate dagli effetti casuali ottenuti. I risultati di tale modellazione vengono elaborati utilizzando metodi di statistica matematica. In questo caso, il tipo ei parametri della distribuzione di una variabile casuale possono variare.

L'attuazione di un processo casuale con il metodo Monte Carlo è una sequenza di estrazioni di singoli lotti, intervallate da calcoli convenzionali, durante le quali viene determinato il risultato di un effetto perturbante su un oggetto o processo, sull'esito di un'operazione.

Poiché è difficile stabilire l'adeguatezza del modello per la distribuzione degli effetti casuali nel caso generale, il compito della modellazione con il metodo Monte Carlo è quello di fornire robustezza delle soluzioni ottenute (resistenza alle variazioni dei parametri della legge di distribuzione di variabili casuali e condizioni iniziali di modellazione). Se il risultato della simulazione non è robusto (dipende sostanzialmente dai parametri della legge di distribuzione e dai parametri del modello), ciò indica la presenza di un rischio elevato quando si prende una decisione in questa implementazione del sistema simulato.

Un ruolo importante nei modelli statistici è svolto dalle ipotesi sulla natura dei processi di cambiamento di stato nel sistema modellato. Ad esempio, un caso molto interessante è l'ipotesi di " markoviano » processi (chiamati in onore dello scienziato russo A.A. Markov - l'inizio del XX secolo). I processi di Markov sono un caso di un processo con probabilità deterministiche, per il quale la storia iniziale del cambiamento nello stato del sistema in un intervallo di tempo precedente non è essenziale per stabilire la probabilità del prossimo evento - l'importanza principale è attribuita alla sua stato attuale. Se c'è fiducia nella natura markoviana del processo, questo cambia in modo significativo il concetto di sistema (può essere considerato come "inerziale", a seconda in larga misura del suo stato attuale e della natura dell'effetto perturbatore). Il principio markoviano è stato scoperto nell'analisi dei testi nelle lingue naturali, dove la probabilità che si verifichi il carattere successivo può essere prevista sulla base dell'analisi statistica degli array di testo in una determinata lingua particolare.

La modellazione statistica è strettamente correlata alla modellazione di simulazione , durante il quale il modello a oggetti è spesso “immerso in un ambiente probabilistico (statistico)”, in cui si riproducono varie situazioni e modalità di funzionamento del modello/oggetto. Tuttavia, i modelli di simulazione possono essere implementati anche in ambienti deterministici.

I metodi di modellizzazione statistica sono ampiamente utilizzati nel campo della pianificazione e gestione strategica. L'elevata intensità di lavoro del processo di modellazione impedisce l'uso diffuso di metodi di modellazione statistica nel campo della gestione operativa. Ciò è dovuto principalmente alla necessità di uno studio matematico approfondito dei modelli e agli elevati requisiti per la conoscenza matematica degli utenti.

L'idea della scelta casuale. Prima di passare alla descrizione di ipotesi statistiche, discuteremo ancora una volta il concetto di selezione casuale.

Tralasciando i dettagli e alcune (seppur importanti) eccezioni, possiamo dire che tutta l'analisi statistica si basa su idea di scelta casuale. Accettiamo la tesi che i dati disponibili siano apparsi come risultato di una selezione casuale da una certa popolazione generale, spesso immaginaria. Di solito assumiamo che questa scelta casuale sia prodotta dalla natura. Tuttavia, in molti problemi questa popolazione è abbastanza reale e la scelta da essa è fatta da un osservatore attivo.

Per brevità, diremo che tutti i dati che studieremo nel loro insieme lo sono una osservazione. La natura di questa osservazione collettiva può essere molto varia. Può essere un numero singolo, una sequenza di numeri, una sequenza di caratteri, una tabella numerica e così via. Indichiamo temporaneamente questa osservazione collettiva come X. Dal momento che crediamo X risultato di una selezione casuale, dobbiamo anche indicare la popolazione generale di cui X fu scelto. Ciò significa che dobbiamo specificare quei valori che potrebbero apparire al posto di quello reale. X. Indichiamo questo insieme come X. Un mucchio di X chiamato anche spazio campione, o spazio campione.

Assumiamo inoltre che la scelta indicata sia avvenuta secondo una certa distribuzione di probabilità sull'insieme X, secondo cui ogni elemento X ha una certa probabilità di essere selezionato. Se un X - insieme finito, quindi ciascuno dei suoi elementi X; c'è una possibilità positiva R(X) da selezionare. La selezione casuale secondo una tale legge probabilistica è facile da capire letteralmente. Per insiemi infiniti più complessi X si deve determinare la probabilità non per i suoi singoli punti, ma per i sottoinsiemi. Scegliere a caso una tra un'infinità di possibilità è più difficile da immaginare, è come scegliere un punto X da un segmento o da una regione spaziale X.

Relazione tra osservazione X e spazio campionario X, tra gli elementi di cui è distribuita la probabilità è esattamente lo stesso che tra gli esiti elementari e lo spazio degli esiti elementari di cui si occupa la teoria della probabilità. Grazie a ciò, la teoria della probabilità diventa la base della statistica matematica, e quindi, in particolare, possiamo applicare considerazioni probabilistiche al problema della verifica di ipotesi statistiche.

regola pragmatica.È chiaro che dal momento che abbiamo assunto un punto di vista probabilistico sull'origine dei nostri dati (cioè, riteniamo che siano ottenuti per selezione casuale), tutti gli ulteriori giudizi basati su questi dati saranno probabilistici. Qualsiasi affermazione sarà vera solo con una certa probabilità e con una certa probabilità positiva potrebbe rivelarsi falsa. Tali conclusioni saranno utili ed è possibile ottenere risultati affidabili in questo modo?



Entrambe queste domande devono essere risolte in senso affermativo. In primo luogo, è utile la conoscenza delle probabilità degli eventi, poiché il ricercatore sviluppa rapidamente un'intuizione probabilistica che gli consente di operare con probabilità, distribuzioni, aspettative matematiche, ecc., traendone vantaggio. In secondo luogo, i risultati puramente probabilistici possono essere abbastanza convincenti: una conclusione può essere considerata praticamente affidabile se la sua probabilità è prossima all'unità.

Si può dire quanto segue regola pragmatica, che guida le persone e che collega la teoria della probabilità con le nostre attività.

Consideriamo praticamente certo un evento la cui probabilità è prossima 1;

Consideriamo un evento praticamente impossibile, la cui probabilità è prossima 0.

E non solo lo pensiamo, ma agiamo anche in conformità con esso!

La regola pragmatica dichiarata è, ovviamente, errata in senso stretto, poiché non protegge completamente dagli errori. Ma gli errori nel suo utilizzo saranno rari. La regola è utile in quanto consente di applicare nella pratica conclusioni probabilistiche.

A volte la stessa regola è espressa in modo leggermente diverso: in una singola prova, l'evento improbabile non si verifica(e viceversa - si verifica necessariamente un evento la cui probabilità è vicina uno). La parola "singolo" è inserita a scopo di chiarimento, perché in una sequenza sufficientemente lunga di ripetizioni indipendenti dell'esperimento, l'improbabile (in un esperimento!) Evento menzionato quasi sicuramente si verificherà. Ma questa è una situazione completamente diversa.

Non è ancora chiaro quale probabilità debba essere considerata piccola. È impossibile dare una risposta quantitativa a questa domanda che sia adatta in tutti i casi. La risposta dipende da quale pericolo ci minaccia l'errore. Abbastanza spesso - quando si verificano ipotesi statistiche, ad esempio, come discusso di seguito - si presume che le probabilità siano piccole, a partire da 0,01 ¸ 0,05. Un'altra cosa è l'affidabilità dei dispositivi tecnici, ad esempio i freni delle auto. Qui, la probabilità di guasto, diciamo, 0,001, sarà inaccettabilmente alta, poiché il guasto dei freni una volta ogni mille frenate comporterà un gran numero di incidenti. Pertanto, quando si calcola l'affidabilità, è spesso richiesto che la probabilità di un'operazione senza errori sia dell'ordine di 1-10 -6 . Non discuteremo qui di quanto siano realistici tali requisiti: se un modello matematico inevitabilmente approssimato può fornire tale accuratezza nel calcolo della probabilità e come confrontare i risultati calcolati e reali.

Avvertenze. 1. Dovrebbero essere forniti alcuni consigli su come costruire modelli statistici, spesso in problemi che non hanno natura statistica esplicita. Per fare ciò, è necessario esprimere le caratteristiche inerenti al problema in discussione in termini di spazio campionario e distribuzione di probabilità. Sfortunatamente, questo processo non può essere descritto in termini generali. Inoltre, questo processo è creativo e non può esserlo memorizzare come, diciamo, una tabellina. Ma può imparare, studiando modelli ed esempi e seguendone lo spirito. Vedremo molti di questi esempi. In futuro, presteremo particolare attenzione anche a questa fase della ricerca statistica.

2. Nella formalizzazione di problemi reali possono sorgere modelli statistici molto diversi. Tuttavia, la teoria matematica ha preparato mezzi per studiare solo un numero limitato di modelli. Per una serie di modelli tipici, la teoria è stata sviluppata in modo molto dettagliato e lì puoi ottenere risposte alle principali domande di interesse per il ricercatore. Alcuni di questi modelli standard, che in pratica dobbiamo affrontare più spesso, li discuteremo in questo libro. Altri possono essere trovati in guide e libri di riferimento più specifici e dettagliati.

3. Vale la pena ricordare i limiti dei mezzi matematici nella formalizzazione matematica dell'esperimento. Se possibile, è necessario ridurre la questione a un tipico problema statistico. Queste considerazioni sono particolarmente importanti quando pianificazione esperimento o ricerca; durante la raccolta di informazioni, se si tratta di un'indagine statistica; quando si impostano esperimenti, se stiamo parlando di un esperimento attivo.

4.1.1. modello statistico. Nella modellazione statistica (stocastica), gli oggetti principali della modellazione sono eventi casuali, variabili casuali e funzioni casuali.

Quando conduce esperimenti, il ricercatore corregge l'aspetto o il non verificarsi di eventi di interesse e misura anche i valori dei parametri che sono di natura casuale e, in sostanza, sono i valori dell'implementazione di alcune variabili casuali.

La modellizzazione statistica consente, senza condurre esperimenti reali sull'oggetto in studio (che nella maggior parte dei casi richiede ingenti costi materiali e finanziari), di ottenere informazioni rilevanti sul verificarsi o meno di determinati eventi che si verificano in un oggetto reale. sui valori campionari di variabili casuali in base alle caratteristiche probabilistiche disponibili di eventi simulati e variabili casuali. Questo tipo di modellizzazione comporta una raccolta preliminare di informazioni sugli indicatori simulati e un'ulteriore elaborazione statistica dei risultati ottenuti al fine di ottenere stime statistiche ragionevoli necessarie per modellare le caratteristiche probabilistiche.

I modelli stocastici vengono utilizzati principalmente in due casi:

1) l'oggetto della modellazione è poco compreso - non ci sono modelli quantitativi ben sviluppati che descrivono i processi e i fenomeni in esame, e non c'è nemmeno modo di trovare una soluzione analitica accettabile a questo problema;

2) l'oggetto simulato è stato studiato abbastanza bene in modo deterministico, ma senza tener conto di fattori casuali che influiscono sui processi e sui fenomeni oggetto di studio.

Nel primo caso, sulla base della descrizione verbale dell'oggetto in studio, vengono selezionati indicatori quantitativi con il calcolo della loro dimensione fisica, costituita da due gruppi. Uno dei gruppi è considerato come i valori di input del modello e l'altro - i valori di output. Inoltre, applicando i risultati teorici scientifici ottenuti da altri ricercatori in questo campo ed eventualmente applicando una serie di ipotesi necessarie, nonché eventualmente dati sperimentali già disponibili sulle grandezze di input e output (ad esempio, sulle loro leggi di distribuzione), stabilire deterministiche o relazioni stocastiche tra le grandezze input output del modello. Viene chiamato l'insieme delle relazioni ottenute tra le quantità di input e di output (di solito scritte sotto forma di equazioni). modello statistico.

Durante l'implementazione del modello statistico, sulla base delle leggi di distribuzione selezionate delle variabili casuali e delle probabilità selezionate degli eventi simulati, i metodi della statistica matematica determinano i valori sperimentali selettivi delle variabili casuali e delle sequenze quasi empiriche di occorrenza o non -comparsa di eventi simulati. Inoltre, secondo le equazioni del modello, vengono determinati i corrispondenti valori di campionamento dei suoi valori di output. E l'implementazione multipla del modello costruito consente al ricercatore di costruire un modello campione dei suoi valori di output, che viene nuovamente sottoposto ad analisi statistica (correlazione, regressione, dispersione, spettrale) al fine di ottenere stime delle caratteristiche dei parametri di output del modellare o verificare le ipotesi avanzate. Sulla base dei risultati ottenuti, si traggono conclusioni sull'oggetto di studio, nonché giustificazioni per l'applicazione pratica del modello costruito.

I metodi di modellazione statistica sono ampiamente utilizzati per risolvere problemi di accodamento, teoria dell'ottimizzazione, teoria del controllo, fisica teorica, ecc.

La base teorica del metodo di modellazione statistica al computer sono i teoremi limite della teoria della probabilità.

4.1.2. La disuguaglianza di Chebyshev. Per una funzione non negativa della variabile casuale e, la disuguaglianza

.

4.1.3. Il teorema di Bernoulli. Se vengono eseguiti test indipendenti, in ognuno dei quali si verifica un evento con una probabilità , allora la purezza relativa del verificarsi dell'evento (il numero di esiti favorevoli del test) a converge in probabilità a A

4.1.4. Il teorema di Poisson. Se vengono effettuate prove indipendenti e la probabilità che si verifichi un evento in quella prova è uguale a A

4.1.5. Il teorema di Chebyshev. Se i valori di una variabile casuale vengono osservati in test indipendenti, allora a , la media aritmetica dei valori della variabile casuale converge in probabilità alla sua aspettativa matematica, ad es. A

4.1.6. Teorema generalizzato di Chebyshev. Se variabili casuali indipendenti con aspettative matematiche e varianze limitate dall'alto dallo stesso numero, allora per la media aritmetica dei valori della variabile casuale converge in probabilità alla media aritmetica delle loro aspettative matematiche

4.1.7. Il teorema di Markov.. Il teorema di Chebyshev sarà valido anche per variabili casuali dipendenti se

4.1.8. Teorema del limite centrale. Se variabili casuali indipendenti distribuite in modo identico con aspettativa matematica e varianza, allora per la legge di distribuzione della somma si avvicina indefinitamente alla legge di distribuzione normale

dov'è la funzione di Laplace

4.1.9. Il teorema di Laplace. Se in ciascuna delle prove indipendenti si verifica un evento con probabilità , allora

La modellazione statica è una rappresentazione o descrizione di un determinato fenomeno o un sistema di relazioni tra fenomeni attraverso un insieme di variabili (indicatori, caratteristiche) e relazioni statistiche tra di loro. Lo scopo della modellazione statica (così come di qualsiasi altra modellazione) è quello di presentare le caratteristiche più significative del fenomeno oggetto di studio in una forma visiva e accessibile allo studio. Tutti i modelli statistici sono progettati, in definitiva, per misurare la forza e la direzione delle relazioni tra due o più variabili. I modelli più complessi consentono anche di giudicare la struttura delle relazioni tra più variabili. La maggior parte dei modelli statistici può essere condizionatamente suddivisa in correlazionale, strutturale e causale. I modelli di correlazione vengono utilizzati per misurare le relazioni "non direzionali" a coppie tra variabili, ad es. tali legami in cui la componente causale è assente o ignorata. Esempi di tali modelli sono il coefficiente di correlazione lineare a coppie di Pearson, i coefficienti di rango delle correlazioni a coppie e multiple, la maggior parte delle misure di collegamento sviluppate per le tabelle di contingenza (ad eccezione dei coefficienti di teoria dell'informazione e dell'analisi log-lineare).

I modelli strutturali nella modellazione statica sono progettati per studiare la struttura di un determinato insieme di variabili o oggetti. Il dato iniziale per studiare la struttura delle relazioni tra più variabili è la matrice delle correlazioni tra di esse. L'analisi della matrice di correlazione può essere effettuata manualmente o utilizzando i metodi dell'analisi statistica multivariata - scaling fattoriale, cluster, multivariato. In molti casi, lo studio della struttura delle relazioni tra variabili è un passo preliminare nella risoluzione di un problema più complesso: la riduzione della dimensione dello spazio delle caratteristiche.

Per studiare la struttura di un insieme di oggetti vengono utilizzati i metodi dell'analisi dei cluster e del ridimensionamento multidimensionale. La matrice delle distanze tra di loro viene utilizzata come dato iniziale. La distanza tra gli oggetti è minore, più gli oggetti "simili" tra loro in termini di valori misurati su di essi variabili; se i valori di tutte le variabili per due oggetti sono uguali, la distanza tra loro è zero. A seconda degli obiettivi dello studio, i modelli strutturali possono essere presentati sotto forma di matrici (correlazioni, distanze), struttura fattoriale o visivamente. I risultati dell'analisi dei cluster sono spesso presentati sotto forma di dendrogramma; risultati dell'analisi fattoriale e del ridimensionamento multidimensionale - sotto forma di grafico a dispersione. La struttura della matrice di correlazione può anche essere rappresentata come un grafico che riflette le relazioni più significative tra le variabili. I modelli causali sono progettati per esplorare le relazioni causali tra due o più variabili. Le variabili che misurano i fenomeni causali sono chiamate variabili indipendenti o predittori in statistica; le variabili che misurano i fenomeni-conseguenze sono dette dipendenti. La maggior parte dei modelli causali statistici causali presuppone una variabile dipendente e uno o più predittori. L'eccezione sono i modelli lineari-strutturali, in cui più variabili dipendenti possono essere utilizzate contemporaneamente e alcune variabili possono contemporaneamente agire come dipendenti rispetto a un indicatore e come predittori rispetto ad altri.

Esistono due aree di applicazione del metodo di modellazione statistica: pianificazione della simulazione statica

  • - studiare i sistemi stocastici;
  • - per risolvere problemi deterministici.

L'idea principale, che viene utilizzata per risolvere problemi deterministici mediante modellizzazione statistica, è quella di sostituire un problema deterministico con un circuito equivalente di qualche sistema stocastico, le caratteristiche di output di quest'ultimo coincidono con il risultato della risoluzione di un problema deterministico. Con tale sostituzione, l'errore diminuisce con un aumento del numero di test (implementazione dell'algoritmo di modellazione) N.

Come risultato della modellizzazione statistica del sistema S si ottiene una serie di valori parziali delle quantità o funzioni desiderate, la cui elaborazione statistica consente di ottenere informazioni sul comportamento di un oggetto o processo reale in momenti arbitrari. Se il numero di vendite Nè sufficientemente grande, allora i risultati ottenuti dalla modellazione del sistema acquisiscono stabilità statistica e possono essere accettati con sufficiente accuratezza come stime delle caratteristiche desiderate del processo di funzionamento del sistema S.

Inviare il tuo buon lavoro nella knowledge base è semplice. Usa il modulo sottostante

Gli studenti, i dottorandi, i giovani scienziati che utilizzano la base di conoscenze nei loro studi e nel loro lavoro ti saranno molto grati.

postato su http://www.allbest.ru/

MINISTERO DELL'ISTRUZIONE E DELLA SCIENZARUSSIA

Educazione autonoma statale federale
istituto di istruzione superiore professionale
"Università Federale Meridionale"

Dipartimento di apparecchiature e tecnologie dell'informazione e di misura

Specialità

230201 Sistemi e tecnologie informatiche

SAGGIO

Oggetto: "Organizzazione della ricerca e sviluppo"

Sul tema: "Metodi di modellazione matematica in statistica"

Completato dallo studente: Strotsev Vasily Andreevich

Relatore: Gusenko Tamara Grigorievna

1. Elementi di statistica matematica

La statistica matematica è una branca della matematica dedicata ai metodi matematici di sistematizzazione, elaborazione e utilizzo dei dati statistici per conclusioni scientifiche e pratiche. I dati statistici sono qui intesi come informazioni sul numero di oggetti in una raccolta più o meno ampia che hanno determinate caratteristiche.

L'obiettivo principale della statistica matematica è ottenere conclusioni significative e scientificamente basate sull'oggetto dei dati a dispersione casuale. Allo stesso tempo, il fenomeno oggetto di studio che genera questi dati è spesso troppo complesso per poterne compilare una descrizione completa, rispecchiandone tutti i dettagli. Pertanto, le conclusioni statistiche vengono tratte sulla base di un modello matematico probabilistico di un fenomeno casuale reale, che dovrebbe riprodurne le caratteristiche essenziali ed escludere quelle che si presume siano insignificanti. I metodi della statistica matematica consentono di determinare le caratteristiche probabilistiche delle variabili casuali partecipanti al modello matematico che descrive questo fenomeno osservando il fenomeno in esame.

Il compito della statistica matematica - la creazione di modelli a cui sono soggetti i fenomeni casuali di massa, si basa sullo studio dei dati statistici, sui risultati delle osservazioni, con i metodi della teoria della probabilità. I dati statistici sono dati ottenuti a seguito dell'esame di un gran numero di oggetti o fenomeni; di conseguenza, la statistica matematica si occupa di fenomeni di massa.

Il primo compito della statistica matematica è indicare le modalità di raccolta e raggruppamento delle informazioni statistiche ottenute a seguito di osservazioni oa seguito di esperimenti appositamente progettati.

Il secondo compito della statistica matematica è quello di sviluppare metodi per l'analisi dei dati statistici, a seconda degli obiettivi dello studio.

La moderna statistica matematica sta sviluppando modi per determinare il numero di test richiesti prima dell'inizio dello studio, durante lo studio, e risolve molti altri problemi. La moderna statistica matematica è definita come la scienza del processo decisionale in condizioni di incertezza.

Il compito della statistica matematica è creare metodi per raccogliere ed elaborare dati statistici per ottenere conclusioni scientifiche e pratiche.

1.1 Dati statistici generali e campionari

Sia richiesto di studiare un insieme di oggetti omogenei rispetto a qualche caratteristica qualitativa o quantitativa che caratterizza questi oggetti.

Un oggetto ha o non possiede caratteristiche qualitative. Non sono direttamente misurabili (ad esempio specializzazione sportiva, qualifiche, nazionalità, appartenenza territoriale, ecc.).

Le caratteristiche quantitative sono i risultati di un conteggio o di una misurazione. Di conseguenza, sono divisi in discreti e continui.

A volte viene eseguito un esame completo, ad es. esaminare ciascuno degli oggetti della popolazione rispetto alla caratteristica a cui sono interessati. In pratica, un'indagine continua viene utilizzata relativamente di rado. Ad esempio, se la popolazione contiene un numero molto elevato di oggetti, è fisicamente impossibile condurre un'indagine completa. In questi casi, un numero limitato di oggetti viene selezionato casualmente dall'intera popolazione e sottoposto a studio. Distinguere tra popolazione generale e campione.

Un insieme di campioni (campione) è un insieme di oggetti selezionati casualmente.

L'insieme generale (principale) è l'insieme di oggetti da cui è composto il campione.

Il volume della popolazione (campione o generale) è il numero di oggetti in questa popolazione. Ad esempio, se su 1000 parti vengono selezionate 100 parti per l'esame, il volume della popolazione generale è N = 1000 e la dimensione del campione è n = 100. Il numero di oggetti nella popolazione generale N supera significativamente la dimensione del campione n.

1.2 Metodi di campionamento

Quando si compila un campione, si può procedere in due modi: dopo che un oggetto è stato selezionato e osservato su di esso, può essere restituito o meno alla popolazione generale. In conformità con quanto sopra, i campioni sono suddivisi in ripetuti e non ripetuti.

Un campione ripetuto è quello in cui l'oggetto selezionato (prima di selezionare quello successivo) viene restituito alla popolazione generale.

Un campione non ripetuto è quello in cui l'oggetto selezionato non viene restituito alla popolazione generale.

Affinché i dati del campione siano sufficientemente sicuri nel giudicare la caratteristica di interesse nella popolazione generale, è necessario che gli oggetti del campione la rappresentino correttamente (il campione deve rappresentare correttamente le proporzioni della popolazione generale) - il il campione deve essere rappresentativo (rappresentativo).

Il campione sarà rappresentativo se:

Ogni oggetto del campione è selezionato casualmente dalla popolazione generale;

Tutti gli oggetti hanno la stessa probabilità di essere inclusi nel campione.

1.3 Modalità di raggruppamento delle statistiche

1.3.1 Serie di variazioni discrete

Tipicamente, i dati osservati ottenuti sono un insieme di numeri disposti casualmente. Guardando attraverso questo insieme di numeri, è difficile identificare qualsiasi regolarità nella loro variazione (cambiamento). Per studiare i modelli di variazione dei valori di una variabile casuale, vengono elaborati i dati sperimentali.

Esempio 1. Sono state fatte osservazioni sul numero X voti ricevuti dagli studenti universitari agli esami. Le osservazioni entro un'ora hanno dato i seguenti risultati: 3; 4; 3; 5; 4; 2; 2; 4; 4; 3; 5; 2; 4; 5; 4; 3; 4; 3; 3; 4; 4; 2; 2; 5; 5; 4; 5; 2; 3; 4; 4; 3; 4; 5; 2; 5; 5; 4; 3; 3; 4; 2; 4; 4; 5; 4; 3; 5; 3; 5; 4; 4; 5; 4; 4; 5; 4; 5; 5; 5. Ecco un numero Xè una variabile casuale discreta e le informazioni ottenute su di essa sono dati statistici (osservati).

Disponendo i dati di cui sopra in ordine non decrescente e raggruppandoli in modo che i valori della variabile casuale in ogni singolo gruppo siano gli stessi, si ottiene una serie classificata di dati osservativi.

Nell'esempio 1 abbiamo quattro gruppi con i seguenti valori della variabile casuale: 2; 3; 4; 5. Il valore di una variabile casuale corrispondente a un gruppo separato di una serie raggruppata di dati osservati è chiamato variante e una modifica in questo valore è chiamata variazione.

Le varianti sono indicate da lettere minuscole dell'alfabeto latino con indici corrispondenti al numero di serie del gruppo - xi. Il numero che mostra quante volte si verifica la variante corrispondente in una serie di osservazioni è chiamato frequenza della variante ed è indicato di conseguenza - ni.

La somma di tutte le frequenze nella serie è la dimensione del campione. Rapporto tra la frequenza delle varianti e la dimensione del campione ni/n = wi chiamata frequenza relativa.

La distribuzione statistica del campione è l'elenco delle opzioni e delle relative frequenze o frequenze relative (Tabella 1, Tabella 2).

Esempio 2. Data la distribuzione di frequenza del volume campione n=20:

Tabella 1

Il controllo: 0,15 + 0,50 + 0, 35 = 1.

La distribuzione statistica può anche essere specificata come una sequenza di intervalli e delle frequenze corrispondenti (la frequenza corrispondente all'intervallo è assunta come somma delle frequenze all'interno di questo intervallo).

Una serie di distribuzione variazionale discreta è un insieme a intervalli di varianti xi con le rispettive frequenze ni o frequenze relative wi.

Per l'esempio 1 sopra, la serie variazionale discreta ha la forma:

Tabella 3

Il controllo: la somma di tutte le frequenze della serie di variazioni (la somma dei valori della seconda riga della tabella 3) è la dimensione del campione (nell'esempio 1 n=60 ); la somma delle frequenze relative della serie di variazioni dovrebbe essere uguale a 1 (la somma dei valori della terza riga della tabella 3)

1.3.2 Serie di variazioni di intervallo

Se la variabile aleatoria oggetto di studio è continua, allora la graduatoria e il raggruppamento dei valori osservati spesso non consentono di evidenziare i tratti caratteristici della variazione dei suoi valori. Ciò è spiegato dal fatto che i singoli valori di una variabile casuale possono differire l'uno dall'altro quanto si desidera e quindi, nella totalità dei dati osservati, possono verificarsi raramente gli stessi valori di una quantità e le frequenze delle varianti differiscono poco l'una dall'altra.

Non è inoltre pratico costruire una serie discreta per una variabile casuale discreta, il cui numero di valori possibili è grande. In questi casi, è necessario costruire una serie di variazioni di intervallo della distribuzione.

Per costruire una tale serie, l'intero intervallo di variazione dei valori osservati di una variabile casuale viene diviso in un numero di intervalli parziali e viene calcolata la frequenza di colpire i valori della quantità in ciascun intervallo parziale.

Una serie variazionale di intervallo è un insieme ordinato di intervalli di variazione dei valori di una variabile casuale con le frequenze corrispondenti o frequenze relative dei valori della quantità che cadono in ciascuna di esse.

Per costruire una serie di intervalli, è necessario:

1. determinare il valore degli intervalli parziali;

2. determinare l'ampiezza degli intervalli;

3. fissare per ogni intervallo i suoi limiti superiore e inferiore;

4. raggruppare i risultati dell'osservazione.

1. La questione della scelta del numero e dell'ampiezza degli intervalli di raggruppamento deve essere decisa caso per caso in base agli obiettivi studio, dimensione del campione e grado di variazione del tratto nel campione.

Numero approssimativo di intervalli K può essere stimato solo dalla dimensione del campione n in uno dei seguenti modi:

· secondo la formula Sturges: k = 1 + 3,32 log n;

utilizzando la tabella 1.

Tabella 1

2. In genere si preferiscono intervalli della stessa larghezza. Per determinare la larghezza degli intervalli h calcolare:

gamma di variazione R- valori campione: R = xmax - xmin, dove xmax e xmin- opzioni campione massimo e minimo;

la larghezza di ogni intervallo h determinato dalla seguente formula: h = R/k.

3. Limite inferiore del primo intervallo xh1 viene scelto in modo che la variante campione minima xmin cadeva approssimativamente a metà di questo intervallo: xh1 = xmin - 0,5 ore.

Gli intervalli intermedi si ottengono sommando alla fine dell'intervallo precedente la lunghezza dell'intervallo parziale h:

xhi = xhi-1 +h.

La costruzione della scala degli intervalli basata sul calcolo dei limiti degli intervalli continua fino al valore xhi soddisfa la relazione:

xhi< xmax + 0,5·h .

4. In base alla scala degli intervalli, i valori dell'attributo sono raggruppati: per ogni intervallo parziale viene calcolata la somma delle frequenze ni variante catturata io-esimo intervallo. In questo caso, l'intervallo include valori di una variabile casuale maggiore o uguale al limite inferiore e inferiore al limite superiore dell'intervallo.

1.4 Poligono e istogramma

Per chiarezza, vengono costruiti vari grafici della distribuzione statistica. Sulla base dei dati della serie variazionale discreta, viene costruito un poligono di frequenze o frequenze relative.

Un poligono di frequenze è chiamato una linea spezzata, i cui segmenti collegano i punti ( x1; n1), (x2; n2),..., (xk; nk). Per costruire un poligono di frequenze sull'asse delle ascisse, le opzioni sono messe da parte xi e sull'asse y - le frequenze corrispondenti ni. Punti ( xi; ni) sono collegati da segmenti di rette e si ottiene un poligono di frequenza (Fig. 1).

Un poligono di frequenze relative è chiamato una linea spezzata, i cui segmenti collegano i punti ( x1; W1), (x2; W2),..., (xk; sett). Per costruire un poligono di frequenze relative sull'ascissa, disattiva le opzioni xi e sull'asse y - le frequenze relative ad essi corrispondenti Wi. Punti ( xi; Wi) sono collegati da segmenti di rette e si ottiene un poligono di frequenze relative. Nel caso di una caratteristica continua, è consigliabile costruire un istogramma.

Un istogramma di frequenza è una figura a gradini costituita da rettangoli le cui basi sono intervalli parziali di lunghezza h, e le altezze sono uguali al rapporto NIH(densità di frequenza).

Per costruire un istogramma delle frequenze, gli intervalli parziali vengono tracciati sull'asse delle ascisse e sopra di essi vengono tracciati segmenti paralleli all'asse delle ascisse a distanza NIH.

Quadrato io hni/h=ni- opzione somma delle frequenze io - esimo intervallo; pertanto, l'area dell'istogramma delle frequenze è uguale alla somma di tutte le frequenze, cioè misura di prova.

Un istogramma di frequenze relative è una figura a gradini costituita da rettangoli, le cui basi sono intervalli parziali di lunghezza h, e le altezze sono uguali al rapporto Con/a(densità di frequenza relativa).

Per costruire un istogramma di frequenze relative, gli intervalli parziali vengono tracciati sull'asse delle ascisse e sopra di essi vengono tracciati segmenti paralleli all'asse delle ascisse a distanza Con/a(Fig. 2).

Quadrato io -esimo rettangolo parziale è uguale a hWi / h = Wi- la frequenza relativa della variante catturata io-esimo intervallo. Pertanto, l'area dell'istogramma delle frequenze relative è uguale alla somma di tutte le frequenze relative, ad es. unità.

1.5 Stima dei parametri della popolazione

I parametri principali della popolazione generale sono l'aspettativa matematica (media generale) M(X) e la deviazione standard S. Queste sono costanti che possono essere stimate da dati campione. Una stima del parametro generale, espressa da un unico numero, è chiamata stima puntuale.

La stima puntuale della media generale è la media campionaria.

La media campionaria è la media aritmetica della caratteristica del campione.

Se tutti i valori x1, x2,..., xn le caratteristiche del campione sono diverse (o se i dati non sono raggruppati), quindi:

x1, x2,..., xn n1, n2,...,nk, e n1 + n2 +...+ nk = n(o se la media campionaria è calcolata da una serie variazionale), allora

Nel caso in cui i dati statistici siano presentati sotto forma di una serie di variazioni di intervallo, quando si calcola la media campionaria, i valori di variante sono considerati a metà degli intervalli.

La media campionaria è la caratteristica principale della posizione, mostra il centro di distribuzione della popolazione, permette di caratterizzare la popolazione oggetto di studio con un unico numero, tracciare il trend di sviluppo, confrontare diverse popolazioni (la media campionaria è il punto, il somma degli scostamenti delle osservazioni da cui è uguale a 0).

Per tariffa insieme a il grado di spread (deviazione) di un indicatore dal suo valore medio, insieme ai valori massimo e minimo, vengono utilizzati i concetti di dispersione e deviazione standard.

La varianza del campione o varianza del campione (dall'inglese varianza) è una misura della variabilità di una variabile. Il termine fu introdotto per la prima volta da Fischer nel 1918.

La varianza campionaria Dv è la media aritmetica dei quadrati della deviazione dei valori osservati di una caratteristica dal loro valore medio.

Se tutti i valori x1, x2,..., xn funzione di campionamento del volume n diverso, quindi:

Se tutti i valori dell'attributo x1, x2,..., xn hanno frequenze corrispondenti n1, n2,...,nk, e n1 + n2 +...+ nk = n, poi

La dispersione varia da zero all'infinito. Un valore estremo di 0 significa nessuna variabilità quando i valori della variabile sono costanti.

La deviazione standard (deviazione standard), (dalla deviazione standard inglese) viene calcolata come radice quadrata della varianza.

Maggiore è la varianza o deviazione standard, più sparsi sono i valori della variabile relativi alla media.

Le caratteristiche non parametriche della posizione sono la moda e la mediana.

Moda Mo chiamata la variante con la frequenza più alta o frequenza relativa.

mediano Meè chiamata variante che divide la serie di variazioni in due parti uguali in numero alla variante.

Con un numero dispari, l'opzione (n=2k+1)

Io = xk+1,

e per un numero pari, l'opzione (n=2k)

Io = (xk + xk+1)/2.

2. Analisi di correlazione e regressione

2.1 Analisi di correlazione

correlazione di raggruppamento statistico matematico

L'analisi di correlazione implica l'instaurazione di una relazione statistica tra variabili casuali. Può essere utilizzato nella ricerca pedagogica per valutare l'influenza di alcuni fattori su altri e per stabilire una relazione tra loro in combinazione con altri parametri: aspettative matematiche e deviazioni standard. L'analisi di correlazione non può essere applicata direttamente all'identificazione di relazioni causali tra processi casuali. Stabilisce solo una connessione tra le caratteristiche statistiche dei processi casuali correlati.

Siano presenti due variabili casuali X e Y con aspettative matematiche rispettivamente mx e my. momento di correlazione

Kxy =M((X-mx)(Y-mio))

caratterizzerà la relazione tra i valori di X e Y. Per facilità d'uso, i momenti di correlazione sono normalizzati dalla formula

dove yx e yy sono le deviazioni standard dei valori X e Y. Il valore Kk è chiamato coefficiente di correlazione dei valori X e Y.

Per le variabili casuali discrete di cui abbiamo a che fare, la stima del coefficiente di correlazione è calcolata dalla formula

La formula per il calcolo del coefficiente di correlazione è valida purché la relazione tra variabili casuali sia lineare e ciascuna di queste variabili sia soggetta alla legge normale.

Valutare la relazione statistica tra il livello di preparazione scolastica e l'andamento degli studenti del primo anno della disciplina "Informatica" La preparazione scolastica viene valutata mediante test all'ingresso in un ateneo (valore X). Il rendimento degli studenti è valutato dai risultati dell'esame dopo il primo semestre (valore Y). Il numero dello studente è designato N.

I dati iniziali per il calcolo sono riepilogati nella tabella

Sostituendo i dati della tabella nell'espressione (1), otteniamo Kk=0,78.

Vediamo che le caratteristiche statistiche di X e Y sono vicine tra loro.

2.2 Analisi di regressione

L'analisi di regressione si pone il compito di studiare statisticamente la relazione tra la variabile dipendente e la variabile indipendente (regressore o predittore). Nel caso più semplice, si assume che questa dipendenza sia lineare. Si risolve il problema di costruire una dipendenza lineare della forma y=ax+b, dove хi e yi sono rispettivamente variabili indipendenti e dipendenti (i=1,2,3,…). La soluzione si trova con il metodo dei minimi quadrati. Il valore è ridotto al minimo

min sono i coefficienti a e b.

Le formule di calcolo sono le seguenti:

In sostanza, l'insieme dei punti ottenuti sperimentalmente è approssimativamente sostituito dalla dipendenza analitica y=ax+b. Tale sostituzione semplifica notevolmente le trasformazioni matematiche e può essere utilizzata nella costruzione di modelli analitici. Nel caso generale, non solo lineare, ma anche qualsiasi altra funzione può essere scelta per costruire una dipendenza di regressione. Naturalmente, le formule per il calcolo dei parametri richiesti diventano più complicate.

3. Metodi matematici per ottimizzare gli esperimenti

3.1 Metodo di ottimizzazione Simplex

Un simplesso è un poliedro regolare che ha n+1 in alto, dove P - numero di fattori che influenzano il processo. Quindi, ad esempio, se ci sono due fattori, un triangolo regolare è un simplesso.

Riso. 1 Ottimizzazione con il metodo simplex

La serie iniziale di esperimenti corrisponde ai vertici del simplesso originale (punti 1, 2 e 3). Le condizioni di questi primi esperimenti sono tratte dall'intervallo di valori dei fattori corrispondenti al più favorevole dei modi noti del processo in fase di ottimizzazione. Confrontando i risultati degli esperimenti ai punti 1, 2 e 3, trovare tra loro quello più "cattivo", in termini di criterio di ottimalità scelto. Prendiamo, ad esempio, l'esperimento al punto 1. Questa esperienza è esclusa dalla considerazione e, al suo posto, l'esperienza al punto viene introdotta nel simplesso 4, che è simmetrico al punto 1 rispetto al lato opposto del triangolo che collega i punti 2 e 3.

Successivamente, i risultati degli esperimenti ai vertici del nuovo simplex vengono confrontati tra loro, il più "fallito" di essi viene scartato e il vertice corrispondente del simplex viene trasferito al punto 5. Quindi la procedura considerata viene ripetuta durante l'intero processo di ottimizzazione.

Se viene raggiunto l'estremo del criterio di ottimalità, l'ulteriore movimento del simplesso si interrompe. Ciò significa che il nuovo passaggio riporta il ricercatore al punto precedente nello spazio dei fattori.

Se ci sono diversi estremi del criterio di ottimalità, allora questo metodo permette di trovare quello che è più vicino ai punti del simplesso originale. Pertanto, se si sospetta l'esistenza di più estremi del criterio di ottimalità, è necessario ricercarli, avviando ogni volta l'ottimizzazione da una nuova regione dello spazio fattoriale. Quindi dovresti confrontare le condizioni ottimali trovate tra loro e scegliere quella migliore tra tutte le opzioni.

L'ottimizzazione deve tenere conto dei vincoli imposti ai fattori di influenza e alle funzioni di risposta.

È importante notare che quando si utilizza il metodo simplex non necessario esperimenti duplicati. Il fatto è che un errore in un singolo esperimento può solo rallentare leggermente l'ottimizzazione. Se gli esperimenti successivi vengono eseguiti in modo impeccabile, il movimento verso l'ottimo continua.

La matrice degli esperimenti del simplesso originale in variabili codificate è riportata nella Tabella 11.

I valori inclusi in questa tabella sono calcolati utilizzando le seguenti formule:

Ecco il numero del fattore nella matrice di pianificazione. Il simbolo 0 indica le coordinate del centro del piano, ovvero il livello principale.

Tabella 11

Matrice del simplesso originale

Numero di esperienza

X2

Funzione di risposta

K2

K2

Gli esperimenti presentati in tabella. 11 corrispondono ai vertici di un simplesso il cui lato è uguale a uno e il cui centro coincide con l'origine (in variabili codificate).

I risultati dei calcoli eseguiti sulla base della tabella. 11 e le formule (*) sono riportate in tabella. 12.

Tabella 12

Condizioni per la serie iniziale di esperimenti

Numero di esperienza

Ovviamente, il maggior numero di esperimenti deve essere fatto all'inizio dell'esperimento. Quindi, ad ogni fase di ottimizzazione, viene eseguito un solo esperimento.

Iniziando l'ottimizzazione, è necessario utilizzare la tabella. 11 o 12 calcolano la matrice della serie iniziale di esperimenti in variabili fisiche, usando la formula

In futuro, tutte le operazioni verranno eseguite solo con Physical1. variabili.

Le condizioni di ogni nuova esperienza sono calcolate dalla formula:

dove P-- il numero di fattori nella matrice di pianificazione;

j -- numero di esperienza;

numero del fattore i;

Il valore dell'i-esimo fattore nell'esperienza più "fallita" del simplesso precedente.

Va notato che in ogni fase di ottimizzazione effettuata con il metodo simplex, è possibile includerne una nuova fattore , che fino ad allora non era stato preso in considerazione, ma è rimasto a un livello costante.

In questo caso, i valori di tutti i fattori precedentemente considerati sono calcolati dalla formula:

dove 1= 1, 2,..., P, cioè sono la media aritmetica delle coordinate corrispondenti del simplesso precedente.

Il valore del fattore appena introdotto è determinato dalla formula:

dove x0(n+1) è il livello principale di questo fattore;

Dxn+1--passo di variazione selezionato per questo fattore;

Rn+1, kn+1 --valori calcolati da formule (*).

Si noti che l'aggiunta di un nuovo fattore all'intero "esperimento fattoriale" è accompagnata da un raddoppio del numero di esperimenti. . In questo senso, il metodo simplex ha un ovvio vantaggio. .

Esempio 3.2. Sia richiesto utilizzando il metodo simplex per ottimizzare la resa del prodotto target A(%), che si ottiene dall'interazione di due reagenti con concentrazioni x1 e x2 () ad una temperatura x3 (°C).

Scegliamo i principali livelli e fasi di variazione dei fattori e li riassumiamo in Tabella. tredici.

Tabella 13

Valori dei livelli dei fattori e dei passi di variazione

Livello principale

Fase di variazione

Utilizzando la formula (3.5) e la tab. 12, calcolare le condizioni per i primi quattro esperimenti e riassumere i risultati in Tabella. 14. Così, ad esempio, per la terza esperienza

x31=1+0,1*0==1; x32== 1,50 +0,2 (--0,578) == 1,38; x33=60+5*0,204==61.

Tabella 14

Ottimizzazione con il metodo simplex

Numero di esperienza

Funzione di risposta

Confrontando i risultati dei primi quattro esperimenti, vediamo che la resa più bassa del prodotto target è stata ottenuta nel terzo esperimento. Questa esperienza dovrebbe essere esclusa da ulteriori considerazioni.

Sostituiamola con l'esperienza 5, le condizioni per le quali calcoleremo secondo la formula (**):

Nel nuovo simplesso formato dagli esperimenti 1, 2, 4 e 5, il più "fallito" è l'esperimento 4. Lo sostituiremo con l'esperimento 6, le cui condizioni troveremo utilizzando la stessa formula (**).

Consideriamo ora la questione di come includere un altro fattore nel programma di ricerca, ad esempio la velocità di rotazione dell'agitatore. Fino ad ora, sia costante e uguale a 500 giri/min Consideriamo ora questo valore come un fattore x4 e prendiamo per esso il passo di variazione Dx4 == 100 rpm.

Il simplesso precedente per tre fattori (vedi Tabella 14) consiste negli esperimenti 1, 2, 5 e 6. Per ottenere da esso un nuovo simplesso per quattro fattori, introduciamo l'esperimento 7 (Tabella 15).

Tabella 15

Aggiunta di un nuovo fattore al programma di ottimizzazione

Numero di esperienza

Funzione di risposta

Troveremo le condizioni per condurre il 7° esperimento usando le formule (3.7) e (3.8):

Ospitato su Allbest.ru

...

Documenti simili

    Metodi matematici di sistematizzazione e utilizzo dei dati statistici per conclusioni scientifiche e pratiche. La legge di distribuzione di una variabile aleatoria discreta. Il concetto di popolazione generale. Compiti di osservazioni statistiche. Distribuzione selettiva.

    abstract, aggiunto il 10/12/2010

    Il concetto di statistica matematica come scienza dei metodi matematici di sistematizzazione e uso dei dati statistici per conclusioni scientifiche e pratiche. Stime puntuali per i parametri delle distribuzioni statistiche. Analisi del calcolo delle medie.

    tesina, aggiunta il 13/12/2014

    La statistica matematica come scienza dei metodi matematici di sistematizzazione dei dati statistici, i suoi indicatori. Compilazione di distribuzioni statistiche integrali della popolazione campione, costruzione di istogrammi. Calcolo delle stime puntuali dei parametri.

    tesina, aggiunta il 04/10/2011

    Analisi primaria e principali caratteristiche dei dati statistici. Stime puntuali dei parametri di distribuzione. Intervalli di confidenza per l'aspettativa matematica sconosciuta e per la deviazione standard. Verifica di ipotesi statistiche.

    tesi, aggiunta il 18/01/2016

    La statistica è la scienza dei fenomeni di massa nella natura e nella società; ottenimento, elaborazione, analisi dei dati. Statistiche demografiche, previsione della popolazione per la Russia. Metodi di elaborazione dei dati statistici: elementi di logica, combinatoria, teoria della probabilità.

    presentazione, aggiunta il 19/12/2012

    Applicazione di metodi specifici in statistica a seconda dei compiti. Metodi di osservazione di massa, raggruppamenti, indicatori di sintesi, serie storiche, metodo degli indici. Analisi di correlazione e dispersione. Calcolo dei valori statistici medi.

    test, aggiunto il 21/09/2009

    Ottenere dati statistici per una descrizione generalizzata dello stato e dell'evoluzione del fenomeno. Tipi, metodi e forme organizzative dell'osservazione statistica. Modulo statistico, riepilogo e raggruppamento dei dati. Tabelle e grafici statistici.

    abstract, aggiunto il 12/11/2009

    Determinazione dell'aspettativa matematica e della deviazione standard per selezionare la legge di distribuzione per un campione di dati statistici sui guasti degli elementi del veicolo. Trovare il numero di eventi in un dato intervallo; calcolo del valore del criterio di Pearson.

    prova, aggiunto il 04/01/2014

    Metodo tabulare di presentazione dei dati statistici legali. Indicatori assoluti e generali. Valori relativi, loro tipi principali e applicazione. Media geometrica, modale e mediana. Metodo di osservazione selettiva. Classificazione di serie di dinamiche.

    test, aggiunto il 29/03/2013

    Elaborazione primaria dei dati statistici sul numero di terminali di comunicazione cellulare degli abbonati registrati per il 2008 per 1000 abitanti nelle regioni della Russia. Stima a intervalli dei parametri. Ipotesi sul tipo di distribuzione. Analisi di regressione.

Condividere