Probabilità e statistica sono fatti di base. I metodi probabilistico-statistici di ricerca e il metodo dell'analisi dei sistemi Il problema dei metodi probabilistici e statistici

Quando si conduce una ricerca psicologica e pedagogica, un ruolo importante è dato ai metodi matematici per la modellazione dei processi e l'elaborazione dei dati sperimentali. Questi metodi includono, in primo luogo, i cosiddetti metodi di ricerca probabilistico-statistico. Ciò è dovuto al fatto che il comportamento sia di una singola persona nel processo della sua attività che di una persona in una squadra è significativamente influenzato da molti fattori casuali. La casualità non consente di descrivere i fenomeni nell'ambito di modelli deterministici, poiché si manifesta come una regolarità insufficiente nei fenomeni di massa e, quindi, non consente di prevedere in modo affidabile il verificarsi di determinati eventi. Tuttavia, quando si studiano tali fenomeni, vengono rivelate alcune regolarità. L'irregolarità inerente agli eventi casuali, con un gran numero di prove, di regola, è compensata dall'apparenza regolarità statistica, stabilizzazione delle frequenze di occorrenza di eventi casuali. Pertanto, questi eventi casuali hanno una certa probabilità. Esistono due metodi probabilistico-statistici fondamentalmente diversi di ricerca psicologica e pedagogica: classico e non classico. Eseguiamo un'analisi comparativa di questi metodi.

Metodo probabilistico-statistico classico. Il classico metodo di ricerca probabilistico-statistico si basa sulla teoria della probabilità e sulla statistica matematica. Questo metodo viene utilizzato nello studio di fenomeni di massa di natura casuale, comprende diverse fasi, le principali delle quali sono le seguenti.

1. Costruzione di un modello probabilistico della realtà basato sull'analisi di dati statistici (determinazione della legge di distribuzione di una variabile aleatoria). Naturalmente, gli schemi dei fenomeni casuali di massa sono espressi più chiaramente, maggiore è il volume del materiale statistico. I dati campionari ottenuti durante l'esperimento sono sempre limitati e, in senso stretto, sono di natura casuale. A questo proposito, un ruolo importante è dato alla generalizzazione dei pattern ottenuti sul campione, e alla loro distribuzione all'intera popolazione generale degli oggetti. Per risolvere questo problema si adotta una certa ipotesi sulla natura della regolarità statistica che si manifesta nel fenomeno in esame, ad esempio l'ipotesi che il fenomeno in esame obbedisca alla legge della distribuzione normale. Tale ipotesi è chiamata ipotesi nulla, che può rivelarsi errata, quindi, insieme a ipotesi nulla viene proposta anche un'ipotesi alternativa o concorrente. La verifica della corrispondenza tra i dati sperimentali ottenuti e l'una o l'altra ipotesi statistica viene effettuata utilizzando i cosiddetti test statistici non parametrici o test di bontà di adattamento. Attualmente sono ampiamente utilizzati i criteri di Kolmogorov, Smirnov, omega-square e altri criteri di bontà dell'adattamento. L'idea principale di questi criteri è misurare la distanza tra la funzione distribuzione empirica e una funzione di distribuzione teorica completamente nota. La metodologia per verificare un'ipotesi statistica è rigorosamente sviluppata e delineata in un gran numero di lavori sulla statistica matematica.

2. Effettuare i calcoli necessari con mezzi matematici nell'ambito di un modello probabilistico. In accordo con il modello probabilistico stabilito del fenomeno, vengono calcolati i parametri caratteristici, ad esempio, aspettativa matematica o valore medio, varianza, deviazione standard, moda, mediana, indice di asimmetria, ecc.

3. Interpretazione di conclusioni probabilistico-statistiche in relazione ad una situazione reale.

Attualmente, il metodo probabilistico-statistico classico è ben sviluppato e ampiamente utilizzato nella ricerca in vari campi delle scienze naturali, tecniche e sociali. Una descrizione dettagliata dell'essenza di questo metodo e della sua applicazione alla risoluzione di problemi specifici può essere trovata in un gran numero di fonti letterarie, ad esempio in.

Metodo probabilistico-statistico non classico. Il metodo di ricerca probabilistico-statistico non classico differisce da quello classico in quanto viene applicato non solo alla massa, ma anche a singoli eventi fondamentalmente casuali. Questo metodo può essere efficacemente utilizzato nell'analisi del comportamento di un individuo nel processo di esecuzione di una particolare attività, ad esempio nel processo di acquisizione delle conoscenze da parte degli studenti. Considereremo le caratteristiche del metodo probabilistico-statistico non classico della ricerca psicologica e pedagogica utilizzando l'esempio del comportamento degli studenti nel processo di padronanza della conoscenza.

Per la prima volta nel lavoro è stato proposto un modello probabilistico-statistico del comportamento degli studenti nel processo di padronanza della conoscenza. Ulteriori sviluppi questo modello è stato fatto nel lavoro. L'insegnamento come tipo di attività, il cui scopo è l'acquisizione di conoscenze, abilità e abilità da parte di una persona, dipende dal livello di sviluppo della coscienza dello studente. La struttura della coscienza include processi cognitivi come la sensazione, la percezione, la memoria, il pensiero, l'immaginazione. Un'analisi di questi processi mostra che hanno elementi di casualità dovuti alla natura casuale degli stati mentali e somatici dell'individuo, nonché rumori fisiologici, psicologici e informativi durante il lavoro del cervello. Quest'ultimo ha portato al rifiuto di utilizzare il modello di un sistema dinamico deterministico nella descrizione dei processi di pensiero a favore del modello di un sistema dinamico casuale. Ciò significa che il determinismo della coscienza si realizza attraverso il caso. Da ciò possiamo concludere che la conoscenza umana, che in realtà è un prodotto della coscienza, ha anche un carattere casuale e, quindi, un metodo probabilistico-statistico può essere utilizzato per descrivere il comportamento di ogni singolo studente nel processo di padronanza della conoscenza.

Secondo questo metodo, uno studente è identificato da una funzione di distribuzione (densità di probabilità) che determina la probabilità di trovarsi in una singola area dello spazio informativo. Nel processo di apprendimento, la funzione distributiva con cui lo studente si identifica, evolvendosi, si muove nello spazio informativo. Ogni studente ha proprietà individuali ed è consentita la localizzazione indipendente (spaziale e cinematica) degli individui l'uno rispetto all'altro.

Sulla base della legge di conservazione della probabilità, il sistema è scritto equazioni differenziali, che sono equazioni di continuità che mettono in relazione la variazione della densità di probabilità per unità di tempo nello spazio delle fasi (lo spazio delle coordinate, delle velocità e delle accelerazioni di vari ordini) con la divergenza del flusso della densità di probabilità nello spazio delle fasi considerato. Nell'analisi delle soluzioni analitiche di una serie di equazioni di continuità (funzioni di distribuzione) che caratterizzano il comportamento dei singoli studenti nel processo di apprendimento.

Durante la conduzione studi sperimentali il comportamento degli studenti nel processo di padronanza della conoscenza, viene utilizzato il ridimensionamento probabilistico-statistico, secondo il quale la scala di misurazione è un sistema ordinato , dove A è un insieme completamente ordinato di oggetti (individui) che hanno caratteristiche di nostro interesse (sistema empirico con relazioni); Ly - spazio funzionale (spazio delle funzioni distributive) con relazioni; F è l'operazione di una mappatura omomorfa di A nel sottosistema Ly; G - gruppo di trasformazioni ammissibili; f è l'operazione di mappatura delle funzioni di distribuzione dal sottosistema Ly ai sistemi numerici con relazioni dello spazio n-dimensionale M. Lo scaling probabilistico-statistico viene utilizzato per trovare ed elaborare funzioni di distribuzione sperimentale e comprende tre fasi.

1. Trovare funzioni di distribuzione sperimentale basate sui risultati di un evento di controllo, ad esempio un esame. In fig. 1. La tecnica per trovare tali funzioni è descritta in.

2. Mappatura delle funzioni di distribuzione su uno spazio numerico. A tale scopo vengono calcolati i momenti delle singole funzioni di distribuzione. In pratica, di regola, è sufficiente limitarsi a determinare i momenti del primo ordine (aspettativa matematica), del secondo ordine (dispersione) e del terzo, che caratterizzano l'asimmetria della funzione di distribuzione.

3. Graduatoria degli studenti in base al livello di conoscenza basata sul confronto dei momenti dei diversi ordini delle loro singole funzioni distributive.

Riso. 1. Una visione tipica delle singole funzioni distributive degli studenti che hanno ottenuto voti diversi nell'esame di fisica generale: 1 - voto tradizionale “2”; 2 - rating tradizionale "3"; 3 - rating tradizionale "4"; 4 - valutazione tradizionale "5"

Sulla base dell'additività delle singole funzioni di distribuzione si trovano le funzioni di distribuzione sperimentale per il flusso di studenti (Fig. 2).


Riso. Fig. 2. Evoluzione della funzione di distribuzione completa del flusso di studenti, approssimata da linee morbide: 1 - dopo il primo anno; 2 - dopo il secondo corso; 3 - dopo il terzo corso; 4 - dopo il quarto corso; 5 - dopo il quinto corso

Analisi dei dati presentati in fig. 2 mostra che mentre ci si sposta nello spazio delle informazioni, le funzioni di distribuzione si confondono. Ciò è dovuto al fatto che le aspettative matematiche delle funzioni di distribuzione degli individui si muovono a velocità diverse e le funzioni stesse sono sfocate a causa della dispersione. Un'ulteriore analisi di queste funzioni di distribuzione può essere effettuata nell'ambito del classico metodo probabilistico-statistico.

La discussione dei risultati. Un'analisi dei metodi probabilistico-statistici classici e non classici della ricerca psicologica e pedagogica ha mostrato che esiste una differenza significativa tra di loro. Da quanto sopra si può comprendere che il metodo classico è applicabile solo all'analisi di eventi di massa, mentre il metodo non classico è applicabile sia all'analisi di eventi di massa che singoli. A questo proposito, il metodo classico può essere convenzionalmente chiamato metodo probabilistico-statistico di massa (MBSM) e il metodo non classico - il metodo probabilistico-statistico individuale (IMSM). In 4] si mostra che nessuno dei metodi classici di valutazione delle conoscenze degli studenti nell'ambito di un modello probabilistico-statistico di un individuo può essere applicato a questi scopi.

Considereremo le caratteristiche distintive dei metodi IMSM e IVSM utilizzando l'esempio della misurazione della completezza delle conoscenze degli studenti. A tal fine, condurremo un esperimento mentale. Supponiamo che ci sia un gran numero di studenti che sono assolutamente identici nelle caratteristiche mentali e fisiche e hanno lo stesso background, e lasciamo che, senza interagire tra loro, partecipino simultaneamente allo stesso processo cognitivo, sperimentando assolutamente la stessa influenza strettamente determinata. Quindi, in accordo con le idee classiche sugli oggetti di misurazione, tutti gli studenti dovrebbero ricevere le stesse valutazioni della completezza delle conoscenze con una data precisione di misurazione. Tuttavia, in realtà, con un'accuratezza delle misurazioni sufficientemente elevata, le valutazioni sulla completezza delle conoscenze degli studenti saranno diverse. Non è possibile spiegare un tale risultato di misurazioni nell'ambito dell'IMSM, poiché si presume inizialmente che l'impatto su studenti assolutamente identici che non interagiscono tra loro sia di natura strettamente deterministica. Il metodo probabilistico-statistico classico non tiene conto del fatto che il determinismo del processo cognitivo si realizza attraverso la casualità, inerente a ogni individuo che conosce il mondo circostante.

L'IVSM tiene conto della natura casuale del comportamento dello studente nel processo di padronanza della conoscenza. L'uso di un metodo probabilistico-statistico individuale per analizzare il comportamento del gruppo idealizzato di studenti in esame dimostrerebbe che è impossibile indicare esattamente la posizione di ogni studente nello spazio informativo, si possono solo dire le probabilità di trovarsi in uno o un'altra area dello spazio informativo. Ogni studente, infatti, è identificato da una funzione di distribuzione individuale, ed i suoi parametri, come aspettativa matematica, varianza, ecc., sono individuali per ogni studente. Ciò significa che le singole funzioni di distribuzione saranno in diverse aree dello spazio informativo. La ragione di questo comportamento degli studenti risiede nella natura casuale del processo cognitivo.

Tuttavia, in un certo numero di casi, i risultati degli studi ottenuti nell'ambito dell'MVSM possono essere interpretati anche nell'ambito dell'IVSM. Assumiamo che l'insegnante utilizzi una scala di misurazione a cinque punti quando valuta le conoscenze di uno studente. In questo caso, l'errore nella valutazione delle conoscenze è di ±0,5 punti. Pertanto, quando a uno studente viene assegnato un punteggio di, diciamo, 4 punti, ciò significa che la sua conoscenza è compresa tra 3,5 punti e 4,5 punti. Infatti, la posizione di un individuo nello spazio dell'informazione in questo caso è determinata da una funzione di distribuzione rettangolare, la cui larghezza è pari all'errore di misura di ±0,5 punti, e la stima è l'aspettativa matematica. Questo errore è così grande che non ci permette di osservare la vera forma della funzione di distribuzione. Tuttavia, nonostante un'approssimazione così approssimativa della funzione di distribuzione, lo studio della sua evoluzione consente di ottenere importanti informazioni sia sul comportamento di un individuo che di un gruppo di studenti nel suo insieme.

Il risultato della misurazione della completezza delle conoscenze di uno studente è direttamente o indirettamente influenzato dalla coscienza dell'insegnante (metro), anch'esso caratterizzato dalla casualità. Nel processo di misurazioni pedagogiche, infatti, c'è un'interazione di due sistemi dinamici casuali che identificano il comportamento dello studente e dell'insegnante in questo processo. Viene considerata l'interazione del sottosistema studenti con il sottosistema docenti e si mostra che la velocità di spostamento dell'aspettativa matematica delle singole funzioni di distribuzione degli studenti nello spazio informativo è proporzionale alla funzione di impatto del corpo docente e inversamente proporzionale a la funzione di inerzia che caratterizza la resistenza al cambiamento della posizione dell'aspettativa matematica nello spazio (analoga alla legge di Aristotele in meccanica).

Allo stato attuale, nonostante i risultati significativi nello sviluppo delle basi teoriche e pratiche delle misurazioni nella conduzione della ricerca psicologica e pedagogica, il problema delle misurazioni nel suo insieme è ancora lontano dall'essere risolto. Ciò è dovuto principalmente al fatto che non ci sono ancora sufficienti informazioni sull'influenza della coscienza sul processo di misurazione. Una situazione simile si è sviluppata nel risolvere il problema della misurazione nella meccanica quantistica. Quindi, nell'articolo, quando si considerano i problemi concettuali della teoria della misurazione quantistica, si dice che difficilmente è possibile risolvere alcuni paradossi delle misurazioni in meccanica quantistica senza includere direttamente la coscienza dell'osservatore nella descrizione teorica della misurazione quantistica. Prosegue dicendo che “... è coerente con l'assunto che la coscienza possa rendere probabile qualche evento, anche se, secondo le leggi della fisica (meccanica quantistica), la probabilità di tale evento è piccola. Facciamo un importante chiarimento della formulazione: la coscienza di un dato osservatore può rendere probabile che egli veda questo evento.

3. L'essenza dei metodi probabilistico-statistici

Come vengono utilizzati gli approcci, le idee ei risultati della teoria della probabilità e della statistica matematica nell'elaborazione dei dati - i risultati di osservazioni, misurazioni, test, analisi, esperimenti per prendere decisioni praticamente importanti?

La base è un modello probabilistico di un fenomeno o processo reale, ad es. un modello matematico in cui le relazioni oggettive sono espresse in termini di teoria della probabilità. Le probabilità vengono utilizzate principalmente per descrivere le incertezze che devono essere prese in considerazione quando si prendono decisioni. Ciò si riferisce sia alle opportunità indesiderabili (rischi) sia a quelle attraenti ("occasione fortunata"). A volte la casualità viene introdotta deliberatamente nella situazione, ad esempio durante l'estrazione a sorte, la selezione casuale di unità per il controllo, lo svolgimento di lotterie o sondaggi sui consumatori.

La teoria delle probabilità consente di calcolare altre probabilità che interessano il ricercatore. Ad esempio, con la probabilità che uno stemma cada, puoi calcolare la probabilità che almeno 3 stemmi cadano in 10 lanci di monete. Tale calcolo si basa su un modello probabilistico, secondo il quale i lanci delle monete sono descritti da uno schema di prove indipendenti, inoltre, lo stemma e il reticolo sono ugualmente probabili, e quindi la probabilità di ciascuno di questi eventi è ½. Più complesso è il modello, che considera il controllo della qualità di un'unità di output invece del lancio di una moneta. Il corrispondente modello probabilistico si basa sul presupposto che il controllo di qualità delle varie unità di produzione sia descritto da uno schema di test indipendenti. In contrasto con il modello del lancio della moneta, è necessario introdurre un nuovo parametro: la probabilità R che il prodotto è difettoso. Il modello sarà completamente descritto se si presume che tutte le unità di produzione abbiano la stessa probabilità di essere difettose. Se l'ultima ipotesi è falsa, il numero di parametri del modello aumenta. Ad esempio, possiamo supporre che ogni unità di produzione abbia la propria probabilità di essere difettosa.

Discutiamo un modello di controllo della qualità con una probabilità di difetto comune per tutte le unità di prodotto R. Per “raggiungere il numero” quando si analizza il modello, è necessario sostituire R ad un certo valore specifico. Per fare ciò, è necessario andare oltre la struttura di un modello probabilistico e rivolgersi ai dati ottenuti durante il controllo di qualità. La statistica matematica risolve il problema inverso rispetto alla teoria della probabilità. Il suo scopo è trarre conclusioni sulle probabilità alla base del modello probabilistico basato sui risultati delle osservazioni (misure, analisi, test, esperimenti). Ad esempio, in base alla frequenza in cui si verificano prodotti difettosi durante l'ispezione, è possibile trarre conclusioni sulla probabilità di difettosità (vedere la discussione sopra utilizzando il teorema di Bernoulli). Sulla base della disuguaglianza di Chebyshev, sono state tratte conclusioni sulla corrispondenza della frequenza di occorrenza di prodotti difettosi all'ipotesi che la probabilità di difettosità assuma un certo valore.

Pertanto, l'applicazione della statistica matematica si basa su un modello probabilistico di un fenomeno o processo. Vengono utilizzate due serie parallele di concetti: quelli relativi alla teoria (un modello probabilistico) e quelli relativi alla pratica (un campione di risultati osservativi). Ad esempio, la probabilità teorica corrisponde alla frequenza rilevata dal campione. L'aspettativa matematica (serie teorica) corrisponde alla media aritmetica campionaria (serie pratica). Di norma, le caratteristiche del campione sono stime di quelle teoriche. Allo stesso tempo, le quantità relative alle serie teoriche “sono nella mente dei ricercatori”, si riferiscono al mondo delle idee (secondo l'antico filosofo greco Platone) e non sono disponibili per la misurazione diretta. I ricercatori hanno solo dati selettivi, con l'aiuto dei quali cercano di stabilire le proprietà di un modello probabilistico teorico che sono di loro interesse.

Perché abbiamo bisogno di un modello probabilistico? Il fatto è che solo con il suo aiuto è possibile trasferire le proprietà stabilite dai risultati dell'analisi di un particolare campione ad altri campioni, nonché all'intera cosiddetta popolazione generale. Il termine "popolazione" è usato per riferirsi a una popolazione ampia ma limitata di unità oggetto di studio. Ad esempio, sulla totalità di tutti i residenti della Russia o sulla totalità di tutti i consumatori di caffè istantaneo a Mosca. Lo scopo delle indagini di marketing o sociologiche è trasferire le affermazioni ricevute da un campione di centinaia o migliaia di persone a popolazioni generali di diversi milioni di persone. Nel controllo qualità, un lotto di prodotti funge da popolazione generale.

Per trasferire le inferenze da un campione a una popolazione più ampia, sono necessarie alcune ipotesi sulla relazione delle caratteristiche del campione con le caratteristiche di questa popolazione più ampia. Queste ipotesi si basano su un appropriato modello probabilistico.

Naturalmente, è possibile elaborare dati campione senza utilizzare l'uno o l'altro modello probabilistico. Ad esempio, puoi calcolare la media aritmetica del campione, calcolare la frequenza di adempimento di determinate condizioni, ecc. Tuttavia, i risultati dei calcoli si applicheranno solo a un campione specifico; trasferire le conclusioni ottenute con il loro aiuto su qualsiasi altro insieme non è corretto. Questa attività viene talvolta definita "analisi dei dati". Rispetto ai metodi probabilistico-statistici, l'analisi dei dati ha un valore cognitivo limitato.

Quindi, l'uso di modelli probabilistici basati sulla stima e sulla verifica di ipotesi con l'aiuto di caratteristiche campionarie è l'essenza dei metodi decisionali probabilistico-statistici.

Sottolineiamo che la logica dell'utilizzo delle caratteristiche campionarie per il processo decisionale basato su modelli teorici implica l'uso simultaneo di due serie parallele di concetti, una delle quali corrisponde a modelli probabilistici, e la seconda a dati campionari. Purtroppo, in un certo numero di fonti letterarie, solitamente superate o scritte secondo uno spirito di prescrizione, non viene fatta alcuna distinzione tra caratteristiche selettive e teoriche, il che porta i lettori a smarrimento ed errori nell'uso pratico dei metodi statistici.

Precedente

3.5.1. Metodo probabilistico-statistico di ricerca.

In molti casi, è necessario indagare non solo i processi deterministici, ma anche probabilistici casuali (statistici). Questi processi sono considerati sulla base della teoria della probabilità.

La totalità della variabile casuale x è il materiale matematico principale. Una collezione è intesa come un insieme di eventi omogenei. L'insieme contenente le più diverse varianti di un fenomeno di massa è chiamato popolazione generale, o un ampio campione di N. Di solito solo una parte della popolazione generale viene studiata, chiamata popolazione campione o piccolo campione.

Probabilità R(x) sviluppi X chiamato il rapporto tra il numero di casi N(x), che portano al verificarsi dell'evento X, al numero totale di casi possibili N:

P(x)=N(x)/N.

Teoria della probabilità considera le distribuzioni teoriche di variabili casuali e le loro caratteristiche.

Statistica matematica si occupa delle modalità di elaborazione e analisi di eventi empirici.

Queste due scienze correlate costituiscono una teoria matematica unificata dei processi casuali di massa, ampiamente utilizzata per l'analisi della ricerca scientifica.

Molto spesso, i metodi della probabilità e della statistica matematica sono utilizzati nella teoria dell'affidabilità, della sopravvivenza e della sicurezza, ampiamente utilizzata in vari rami della scienza e della tecnologia.

3.5.2. Metodo di modellizzazione statistica o test statistici (metodo Monte Carlo).

Questo metodo è un metodo numerico per risolvere problemi complessi e si basa sull'uso numeri casuali modellazione di processi probabilistici. I risultati della soluzione con questo metodo consentono di stabilire empiricamente le dipendenze dei processi in studio.

La risoluzione dei problemi utilizzando il metodo Monte Carlo è efficace solo con l'uso di computer ad alta velocità. Per risolvere problemi utilizzando il metodo Monte Carlo è necessario disporre di una serie statistica, conoscere la legge della sua distribuzione, il valore medio dell'aspettativa matematica t(x), deviazione standard.

Usando questo metodo, si può ottenere un'accuratezza della soluzione data arbitrariamente, ad es.

-> m(x)

3.5.3. Metodo di analisi del sistema.

L'analisi del sistema è intesa come un insieme di tecniche e metodi di studio sistemi complessi, che sono un insieme complesso di elementi interagenti. L'interazione degli elementi del sistema è caratterizzata da connessioni dirette e di feedback.

L'essenza dell'analisi del sistema è identificare queste relazioni e stabilire il loro impatto sul comportamento dell'intero sistema nel suo insieme. L'analisi dei sistemi più completa e approfondita può essere eseguita utilizzando i metodi della cibernetica, che è la scienza dei sistemi dinamici complessi in grado di percepire, archiviare ed elaborare informazioni a fini di ottimizzazione e controllo.

L'analisi del sistema è composta da quattro fasi.

La prima fase consiste nella definizione del compito: determinano l'oggetto, gli obiettivi e gli obiettivi dello studio, nonché i criteri per studiare l'oggetto e gestirlo.

Nella seconda fase si determinano i confini del sistema in esame e si determina la sua struttura. Tutti gli oggetti e i processi relativi all'obiettivo sono divisi in due classi: il sistema in studio e l'ambiente esterno. Distinguere Chiuso e aprire sistemi. Quando si studiano i sistemi chiusi, l'influenza dell'ambiente esterno sul loro comportamento viene trascurata. Quindi separa i singoli componenti del sistema - i suoi elementi, stabilisci l'interazione tra loro e l'ambiente esterno.

La terza fase dell'analisi del sistema è la compilazione di un modello matematico del sistema in esame. Innanzitutto, il sistema è parametrizzato, gli elementi principali del sistema e gli effetti elementari su di esso vengono descritti utilizzando determinati parametri. Allo stesso tempo, ci sono parametri che caratterizzano processi continui e discreti, deterministici e probabilistici. A seconda delle caratteristiche dei processi, viene utilizzato l'uno o l'altro apparato matematico.

Come risultato della terza fase dell'analisi del sistema, vengono formati modelli matematici completi del sistema, descritti in un linguaggio formale, ad esempio algoritmico.

Nella quarta fase, viene analizzato il modello matematico risultante, se ne trovano le condizioni estreme per ottimizzare processi e sistemi di controllo e formulare conclusioni. L'ottimizzazione viene valutata secondo il criterio di ottimizzazione, che in questo caso assume valori estremi (minimo, massimo, minimax).

Di solito viene scelto un criterio e vengono fissati i valori massimi consentiti della soglia per gli altri. A volte vengono utilizzati criteri misti, che sono una funzione dei parametri primari.

Sulla base del criterio di ottimizzazione selezionato, viene compilata la dipendenza del criterio di ottimizzazione dai parametri del modello dell'oggetto (processo) in studio.

Esistono diversi metodi matematici per ottimizzare i modelli in studio: metodi di programmazione lineare, non lineare o dinamica; metodi probabilistico-statistici basati sulla teoria delle code; teoria dei giochi, che considera lo sviluppo dei processi come situazioni casuali.

Domande per l'autocontrollo della conoscenza

Metodologia della ricerca teorica.

Le sezioni principali della fase di sviluppo teorico ricerca scientifica.

Tipi di modelli e tipi di modellazione dell'oggetto di studio.

Metodi analitici di ricerca.

Metodi di ricerca analitica mediante esperimento.

Metodo probabilistico-analitico di ricerca.

Metodi di modellazione statica (metodo Monte Carlo).

Metodo di analisi del sistema.

Inviare il tuo buon lavoro nella knowledge base è semplice. Usa il modulo sottostante

Gli studenti, i dottorandi, i giovani scienziati che utilizzano la base di conoscenze nei loro studi e nel loro lavoro ti saranno molto grati.

postato su http://www.allbest.ru/

postato su http://www.allbest.ru/

introduzione

1. Distribuzione del chi quadrato

Conclusione

Appendice

introduzione

Come vengono utilizzati nelle nostre vite gli approcci, le idee ei risultati della teoria della probabilità? teoria matematica dei quadrati

La base è un modello probabilistico di un fenomeno o processo reale, ad es. modello matematico, in cui le relazioni oggettive sono espresse in termini di teoria della probabilità. Le probabilità vengono utilizzate principalmente per descrivere le incertezze che devono essere prese in considerazione quando si prendono decisioni. Ciò si riferisce sia alle opportunità (rischi) indesiderabili che a quelle attraenti (" Caso fortunato"). A volte la casualità viene introdotta deliberatamente nella situazione, ad esempio durante l'estrazione a sorte, la selezione casuale di unità per il controllo, lo svolgimento di lotterie o sondaggi sui consumatori.

La teoria delle probabilità consente di calcolare altre probabilità che interessano il ricercatore.

Un modello probabilistico di un fenomeno o processo è alla base della statistica matematica. Vengono utilizzate due serie parallele di concetti: quelli relativi alla teoria (un modello probabilistico) e quelli relativi alla pratica (un campione di risultati osservativi). Ad esempio, la probabilità teorica corrisponde alla frequenza rilevata dal campione. L'aspettativa matematica (serie teorica) corrisponde alla media aritmetica campionaria (serie pratica). Di norma, le caratteristiche del campione sono stime di quelle teoriche. Allo stesso tempo, le quantità relative alle serie teoriche "sono nella mente dei ricercatori", riferite al mondo delle idee (secondo l'antico filosofo greco Platone), non sono disponibili per la misurazione diretta. I ricercatori hanno solo dati selettivi, con l'aiuto dei quali cercano di stabilire le proprietà del modello probabilistico teorico che sono di loro interesse.

Perché abbiamo bisogno di un modello probabilistico? Il fatto è che solo con il suo aiuto è possibile trasferire le proprietà stabilite dai risultati dell'analisi di un particolare campione ad altri campioni, nonché all'intera cosiddetta popolazione generale. Il termine "popolazione" è usato per riferirsi a una popolazione ampia ma limitata di unità oggetto di studio. Ad esempio, sulla totalità di tutti i residenti della Russia o sulla totalità di tutti i consumatori di caffè istantaneo a Mosca. Lo scopo delle indagini di marketing o sociologiche è trasferire le affermazioni ricevute da un campione di centinaia o migliaia di persone a popolazioni generali di diversi milioni di persone. Nel controllo qualità, un lotto di prodotti funge da popolazione generale.

Per trasferire le inferenze da un campione a una popolazione più ampia, sono necessarie alcune ipotesi sulla relazione delle caratteristiche del campione con le caratteristiche di questa popolazione più ampia. Queste ipotesi si basano su un appropriato modello probabilistico.

Naturalmente, è possibile elaborare dati campione senza utilizzare l'uno o l'altro modello probabilistico. Ad esempio, puoi calcolare la media aritmetica del campione, calcolare la frequenza di adempimento di determinate condizioni, ecc. Tuttavia, i risultati dei calcoli si applicheranno solo a un campione specifico; trasferire le conclusioni ottenute con il loro aiuto su qualsiasi altro insieme non è corretto. Questa attività viene talvolta definita "analisi dei dati". Rispetto ai metodi probabilistico-statistici, l'analisi dei dati ha un valore cognitivo limitato.

Quindi, l'uso di modelli probabilistici basati sulla stima e sulla verifica di ipotesi con l'aiuto di caratteristiche campionarie è l'essenza del metodo probabilistico metodi statistici il processo decisionale.

1. Distribuzione del chi quadrato

La distribuzione normale definisce tre distribuzioni che ora vengono spesso utilizzate elaborazione statistica dati. Queste sono le distribuzioni di Pearson ("chi - quadrato"), Student e Fisher.

Ci concentreremo sulla distribuzione ("chi - quadrato"). Questa distribuzione fu studiata per la prima volta dall'astronomo F. ​​Helmert nel 1876. In connessione con la teoria gaussiana degli errori, ha studiato la somma dei quadrati di n variabili casuali standard distribuite normalmente indipendenti. Successivamente, Karl Pearson chiamò questa funzione di distribuzione "chi-quadrato". E ora la distribuzione porta il suo nome.

Grazie a stretta connessione con una distribuzione normale, gioca la distribuzione h2 ruolo importante in teoria della probabilità e statistica matematica. La distribuzione h2 e molte altre distribuzioni definite dalla distribuzione h2 (ad esempio la distribuzione di Student), descrivono le distribuzioni campionarie di varie funzioni dalla normale risultati distribuiti osservazioni e sono usati per costruire intervalli di confidenza e test statistici.

Distribuzione di Pearson (chi - quadrato) - distribuzione di una variabile casuale in cui X1, X2, ..., Xn sono normali variabili casuali indipendenti e l'aspettativa matematica di ciascuna di esse è zero e la deviazione standard è uno.

Somma dei quadrati

distribuito secondo la legge ("chi - quadrato").

In questo caso, il numero di termini, ad es. n, è chiamato il "numero di gradi di libertà" della distribuzione chi quadrato. All'aumentare del numero di gradi di libertà, la distribuzione si avvicina lentamente alla normalità.

La densità di questa distribuzione

Quindi, la distribuzione di h2 dipende da un parametro n - il numero di gradi di libertà.

La funzione di distribuzione h2 ha la forma:

se h2?0. (2.7.)

La figura 1 mostra un grafico della densità di probabilità e della funzione di distribuzione χ2 per diversi gradi di libertà.

Figura 1 Dipendenza della densità di probabilità q (x) nella distribuzione di h2 (chi - quadrato) per un diverso numero di gradi di libertà

Momenti della distribuzione "chi-quadrato":

La distribuzione del chi quadrato viene utilizzata nella stima della varianza (utilizzando un intervallo di confidenza), nel verificare ipotesi di accordo, omogeneità, indipendenza, principalmente per variabili qualitative (classificate) che assumono un numero finito di valori e in molti altri compiti di dati statistici analisi.

2. Il "Chi-quadrato" nei problemi di analisi statistica dei dati

I metodi statistici di analisi dei dati sono utilizzati in quasi tutte le aree dell'attività umana. Vengono utilizzati ogni qualvolta sia necessario ottenere e motivare eventuali giudizi su un gruppo (oggetti o soggetti) con una qualche eterogeneità interna.

La moderna fase di sviluppo dei metodi statistici può essere contata dal 1900, quando l'inglese K. Pearson fondò la rivista "Biometrika". Primo terzo del 20° secolo passato sotto il segno della statistica parametrica. Sono stati studiati metodi basati sull'analisi di dati da famiglie parametriche di distribuzioni descritte dalle curve della famiglia di Pearson. La più popolare è stata la distribuzione normale. Per verificare le ipotesi sono stati utilizzati i criteri di Pearson, Student e Fisher. Sono stati proposti il ​​metodo della massima verosimiglianza, l'analisi della varianza e sono state formulate le idee principali per la pianificazione dell'esperimento.

La distribuzione del chi quadrato è una delle più utilizzate nelle statistiche per testare ipotesi statistiche. Sulla base della distribuzione del "chi quadrato", viene costruito uno dei più potenti test di bontà di adattamento, il test del "chi quadrato" di Pearson.

Il test di bontà di adattamento è un criterio per verificare l'ipotesi sulla proposta di legge della distribuzione incognita.

Il test p2 ("chi-quadrato") viene utilizzato per verificare l'ipotesi di diverse distribuzioni. Questo è il suo merito.

La formula di calcolo del criterio è uguale a

dove m e m" sono rispettivamente frequenze empiriche e teoriche

distribuzione in esame;

n è il numero di gradi di libertà.

Per la verifica, dobbiamo confrontare le frequenze empiriche (osservate) e teoriche (calcolate nell'ipotesi di una distribuzione normale).

Se le frequenze empiriche coincidono completamente con le frequenze calcolate o attese, S (E - T) = 0 e anche il criterio ch2 sarà uguale a zero. Se S (E - T) non è uguale a zero, ciò indicherà una discrepanza tra le frequenze calcolate e le frequenze empiriche della serie. In questi casi è necessario valutare la significatività del criterio p2, che teoricamente può variare da zero a infinito. Questo viene fatto confrontando il valore effettivamente ottenuto di ch2f con il suo valore critico (ch2st) (a) e il numero di gradi di libertà (n).

La distribuzione dei valori probabili della variabile casuale h2 è continua e asimmetrica. Dipende dal numero di gradi di libertà (n) e si avvicina a una distribuzione normale all'aumentare del numero di osservazioni. Pertanto, l'applicazione del criterio p2 alla valutazione distribuzioni discreteè associato ad alcuni errori che ne pregiudicano il valore, soprattutto per piccoli campioni. Per ottenere stime più accurate, il campione distribuito nelle serie di variazioni dovrebbe avere almeno 50 opzioni. La corretta applicazione del criterio p2 richiede inoltre che le frequenze delle varianti nelle classi estreme non siano inferiori a 5; se sono inferiori a 5, vengono combinate con le frequenze delle classi vicine in modo che il loro importo totale sia maggiore o uguale a 5. In base alla combinazione di frequenze, diminuisce anche il numero di classi (N). Il numero dei gradi di libertà è fissato in base al numero secondario delle classi, tenendo conto del numero dei vincoli alla libertà di variazione.

Poiché l'accuratezza della determinazione del criterio p2 dipende in gran parte dall'accuratezza del calcolo delle frequenze teoriche (T), è necessario utilizzare frequenze teoriche non arrotondate per ottenere la differenza tra le frequenze empiriche e calcolate.

Prendiamo ad esempio uno studio pubblicato su un sito web dedicato all'applicazione dei metodi statistici nelle discipline umanistiche.

Il test del chi quadrato consente di confrontare le distribuzioni di frequenza, distribuite normalmente o meno.

La frequenza si riferisce al numero di occorrenze di un evento. Di solito, la frequenza di accadimento di un evento viene trattata quando le variabili sono misurate nella scala dei nomi e le loro altre caratteristiche, ad eccezione della frequenza, sono impossibili o problematiche da selezionare. In altre parole, quando una variabile ha caratteristiche di qualità. Inoltre, molti ricercatori tendono a tradurre i punteggi dei test in livelli (alto, medio, basso) e costruire tabelle di distribuzione dei punteggi per scoprire il numero di persone a questi livelli. Per dimostrare che in uno dei livelli (in una delle categorie) il numero di persone è davvero maggiore (minore), viene utilizzato anche il coefficiente Chi quadrato.

Diamo un'occhiata all'esempio più semplice.

Un test di autostima è stato condotto tra gli adolescenti più giovani. I punteggi dei test sono stati tradotti in tre livelli: alto, medio, basso. Le frequenze sono state così distribuite:

Alto (H) 27 pers.

Medio (C) 12 persone

Basso (H) 11 pers.

È ovvio che la maggior parte dei bambini con alta autostima, tuttavia, questo deve essere dimostrato statisticamente. Per fare ciò, utilizziamo il test del chi quadrato.

Il nostro compito è verificare se i dati empirici ottenuti differiscono da quelli teoricamente ugualmente probabili. Per fare ciò, è necessario trovare le frequenze teoriche. Nel nostro caso, le frequenze teoriche sono frequenze equiprobabili che si trovano sommando tutte le frequenze e dividendo per il numero di categorie.

Nel nostro caso:

(B + C + H) / 3 \u003d (27 + 12 + 11) / 3 \u003d 16,6

La formula per calcolare il test del chi quadrato è:

h2 \u003d? (E - T) I/T

Costruiamo una tabella:

Empirico (Uh)

Teorico (T)

(E - T)І / T

Trova la somma dell'ultima colonna:

Ora è necessario trovare il valore critico del criterio secondo la tabella dei valori critici (Tabella 1 in Appendice). Per fare ciò, abbiamo bisogno del numero di gradi di libertà (n).

n = (R - 1) * (C - 1)

dove R è il numero di righe nella tabella, C è il numero di colonne.

Nel nostro caso, c'è solo una colonna (che significa le frequenze empiriche originali) e tre righe (categorie), quindi la formula cambia: escludiamo le colonne.

n = (R - 1) = 3-1 = 2

Per la probabilità di errore p?0,05 e n ​​= 2, il valore critico è h2 = 5,99.

Il valore empirico ottenuto è maggiore del valore critico - le differenze di frequenza sono significative (n2= 9,64; p≤0,05).

Come puoi vedere, il calcolo del criterio è molto semplice e non richiede molto tempo. Il valore pratico del test del chi quadrato è enorme. Questo metodo è molto utile nell'analisi delle risposte ai questionari.

Facciamo un esempio più complesso.

Ad esempio, uno psicologo vuole sapere se è vero che gli insegnanti sono più prevenuti verso i ragazzi che verso le ragazze. Quelli. più propensi a lodare le ragazze. Per fare ciò, lo psicologo ha analizzato le caratteristiche degli studenti scritte dai docenti, riguardo alla frequenza di occorrenza di tre parole: "attivo", "diligente", "disciplinato", sono stati contati anche i sinonimi di parole.

I dati sulla frequenza di occorrenza delle parole sono stati inseriti nella tabella:

Per elaborare i dati ottenuti, utilizziamo il test del chi quadrato.

Per fare ciò, costruiamo una tabella di distribuzione delle frequenze empiriche, ad es. le frequenze che osserviamo:

Teoricamente, ci aspettiamo che le frequenze siano distribuite equamente, cioè la frequenza sarà distribuita proporzionalmente tra maschi e femmine. Costruiamo una tabella di frequenze teoriche. Per fare ciò, moltiplica la somma della riga per la somma della colonna e dividi il numero risultante per la somma totale (s).

La tabella risultante per i calcoli sarà simile a questa:

Empirico (Uh)

Teorico (T)

(E - T)І / T

ragazzi

"Attivo"

"Diligente"

"Disciplinato"

"Attivo"

"Diligente"

"Disciplinato"

Importo: 4,21

h2 \u003d? (E - T) I/T

dove R è il numero di righe nella tabella.

Nel nostro caso, chi quadrato = 4,21; n = 2.

Secondo la tabella dei valori critici del criterio, troviamo: con n = 2 e un livello di errore di 0,05, il valore critico h2 = 5,99.

Il valore risultante è inferiore al valore critico, il che significa che l'ipotesi nulla è accettata.

Conclusione: gli insegnanti non attribuiscono importanza al genere del bambino quando scrivono le sue caratteristiche.

Conclusione

Gli studenti di quasi tutte le specialità studiano alla fine del corso matematica superiore sezione "teoria della probabilità e statistica matematica", in realtà vengono a conoscenza solo di alcuni concetti e risultati di base, che chiaramente non sono sufficienti per lavoro pratico. Gli studenti incontrano alcuni metodi matematici di ricerca in corsi speciali (ad esempio, "Previsione e pianificazione di fattibilità", "Analisi tecnica ed economica", "Controllo qualità prodotto", "Marketing", "Controllo", " Metodi matematici Previsioni", "Statistiche", ecc. - nel caso di studenti di specialità economiche), tuttavia, la presentazione nella maggior parte dei casi è molto abbreviata e di natura prescrittiva, di conseguenza, gli specialisti in statistica applicata non hanno conoscenze sufficienti.

Ecco perché Grande importanza tiene il corso "Statistica applicata" nelle università tecniche e nelle università economiche - il corso "Econometrics", poiché l'econometria è, come sai, l'analisi statistica di dati economici specifici.

La teoria della probabilità e la statistica matematica forniscono le conoscenze fondamentali per la statistica applicata e l'econometria.

Sono necessari per gli specialisti per il lavoro pratico.

Ho considerato un modello probabilistico continuo e ho cercato di mostrarne l'usabilità con esempi.

E alla fine del mio lavoro, sono giunto alla conclusione che l'implementazione competente delle procedure di base dell'analisi dei dati matematici e statici, la verifica statica delle ipotesi è impossibile senza la conoscenza del modello del chi quadrato, nonché la capacità di utilizzare la sua tavola.

Bibliografia

1. Orlov AI Statistiche applicate. M.: Casa editrice "Esame", 2004.

2. Gmurman VE Teoria della probabilità e statistica matematica. M.: Scuola superiore, 1999. - 479s.

3. Ayvozyan SA Teoria della probabilità e statistica applicata, v.1. M.: Unity, 2001. - 656s.

4. Khamitov GP, Vedernikova TI Probabilità e statistica. Irkutsk: BSUEP, 2006 - 272p.

5. Ezhova L.N. Econometria. Irkutsk: BSUEP, 2002. - 314p.

6. Mosteller F. Cinquanta divertenti problemi probabilistici con soluzioni. M.: Nauka, 1975. - 111 p.

7. Mosteller F. Probabilità. M.: Mir, 1969. - 428.

8. Yaglom AM Probabilità e informazione. M.: Nauka, 1973. - 511s.

9. Chistyakov V.P. Corso di probabilità. M.: Nauka, 1982. - 256s.

10. Kremer N.Sh. Teoria della probabilità e statistica matematica. M.: UNITI, 2000. - 543s.

11. Enciclopedia matematica, v.1. M.: Enciclopedia sovietica, 1976. - 655.

12. http://psystat.at.ua/ - Statistica in psicologia e pedagogia. Articolo Test del chi quadrato.

Appendice

Punti di distribuzione critici p2

Tabella 1

Ospitato su Allbest.ru

...

Documenti simili

    Modello probabilistico e assiomatica A.N. Kolmogorov. Variabili casuali e vettori, il classico problema limite della teoria della probabilità. Elaborazione primaria dei dati statistici. Stime puntuali di caratteristiche numeriche. Verifica statistica delle ipotesi.

    manuale di formazione, aggiunto il 03/02/2010

    Regole per l'esecuzione e la progettazione opere di controllo per reparto corrispondenza. Compiti ed esempi di risoluzione di problemi in statistica matematica e teoria della probabilità. Tabelle dei dati di riferimento della distribuzione, densità di distribuzione normale standard.

    manuale di formazione, aggiunto il 29/11/2009

    I principali metodi di descrizione formalizzata e analisi dei fenomeni casuali, elaborazione e analisi dei risultati di fisica e esperimenti numerici teoria della probabilità. Concetti e assiomi di base della teoria della probabilità. Concetti di base della statistica matematica.

    corso di lezioni, aggiunto il 04/08/2011

    La determinazione della legge di distribuzione di probabilità dei risultati di misurazione nella statistica matematica. Verifica della corrispondenza della distribuzione empirica a quella teorica. Determinazione dell'intervallo di confidenza in cui giace il valore della grandezza misurata.

    tesina, aggiunta il 02/11/2012

    Convergenza di successioni di variabili casuali e distribuzioni di probabilità. Metodo delle funzioni caratteristiche. Testare ipotesi statistiche e performare centralmente teorema limite per date sequenze di variabili casuali indipendenti.

    tesina, aggiunta il 13/11/2012

    Le fasi principali dell'elaborazione dei dati dalle osservazioni naturali con il metodo della statistica matematica. Valutazione dei risultati ottenuti, loro utilizzo nelle decisioni manageriali nel campo della protezione della natura e della gestione della natura. Verifica di ipotesi statistiche.

    lavoro pratico, aggiunto il 24/05/2013

    L'essenza della legge di distribuzione e la sua uso pratico per la risoluzione di problemi statistici. Determinando la dispersione di una variabile casuale, aspettativa matematica e deviazione standard. Caratteristiche dell'analisi della varianza unidirezionale.

    test, aggiunto il 12/07/2013

    Probabilità e sue definizione generale. Teoremi di addizione e moltiplicazione di probabilità. Variabili casuali discrete e loro caratteristiche numeriche. La legge dei grandi numeri. Distribuzione statistica del campione. Elementi di correlazione e analisi di regressione.

    corso di lezioni, aggiunto il 13/06/2015

    Programma del corso, concetti e formule di base della teoria della probabilità, loro giustificazione e significato. Luogo e ruolo della statistica matematica nella disciplina. Esempi e spiegazioni per risolvere i problemi più comuni in vari argomenti dati delle discipline accademiche.

    manuale di formazione, aggiunto il 15/01/2010

    La teoria della probabilità e la statistica matematica sono scienze sui metodi di analisi quantitativa dei fenomeni casuali di massa. Un insieme di valori di una variabile casuale è chiamato campione e gli elementi dell'insieme sono chiamati valori campione di una variabile casuale.

Nella cognizione scientifica esiste un sistema complesso, dinamico, integrale e subordinato di metodi diversi utilizzati a diversi stadi e livelli di cognizione. Quindi, nel processo di ricerca scientifica, vengono utilizzati vari metodi scientifici generali e mezzi di cognizione sia a livello empirico che teorico. A loro volta, i metodi scientifici generali, come già notato, includono un sistema di metodi e mezzi di cognizione della realtà empirici, logici e teorici generali.

1. Metodi logici generali della ricerca scientifica

I metodi logici generali sono utilizzati principalmente a livello teorico della ricerca scientifica, sebbene alcuni di essi possano essere applicati anche a livello empirico. Quali sono questi metodi e qual è la loro essenza?

Uno di questi, ampiamente utilizzato nella ricerca scientifica, è metodo di analisi (dal greco. analisi - decomposizione, smembramento) - un metodo di conoscenza scientifica, che è una divisione mentale dell'oggetto oggetto di studio in elementi costitutivi al fine di studiarne la struttura, le caratteristiche individuali, le proprietà, le connessioni interne, le relazioni.

L'analisi consente al ricercatore di penetrare nell'essenza del fenomeno studiato, suddividendolo nei suoi elementi costitutivi e di individuarne i principali, essenziali. L'analisi come operazione logica è parte integrante di qualsiasi ricerca scientifica e di solito ne costituisce la prima fase, quando il ricercatore passa da una descrizione indivisa dell'oggetto in studio alla rivelazione della sua struttura, composizione, nonché delle sue proprietà e relazioni. L'analisi è già presente a livello sensoriale della cognizione, è inclusa nel processo di sensazione e percezione. A livello teorico di conoscenza, inizia a funzionare la più alta forma di analisi: analisi mentale o astratta-logica, che sorge insieme alle abilità della divisione materiale e pratica degli oggetti nel processo lavorativo. A poco a poco l'uomo ha acquisito la capacità di anticipare l'analisi materiale-pratica nell'analisi mentale.

Va sottolineato che, essendo un metodo cognitivo necessario, l'analisi è solo uno dei momenti del processo di ricerca scientifica. È impossibile conoscere l'essenza di un oggetto solo suddividendolo negli elementi che lo compongono. Ad esempio, un chimico, secondo Hegel, mette un pezzo di carne nella sua storta, lo sottopone a varie operazioni e poi dichiara: Ho scoperto che la carne è composta da ossigeno, carbonio, idrogeno, ecc. Ma queste sostanze - elementi non sono più l'essenza della carne.

In ogni campo della conoscenza c'è, per così dire, un proprio limite di divisione dell'oggetto, oltre il quale si passa a una diversa natura di proprietà e modelli. Quando i particolari vengono studiati dall'analisi, inizia la fase successiva della conoscenza: la sintesi.

Sintesi (dalla sintesi greca - connessione, combinazione, composizione) è un metodo di conoscenza scientifica, che è una connessione mentale delle parti costituenti, elementi, proprietà, relazioni dell'oggetto in studio, sezionato a seguito dell'analisi, e lo studio di questo oggetto nel suo insieme.

La sintesi non è una combinazione arbitraria ed eclettica di parti, elementi del tutto, ma un tutto dialettico con l'estrazione dell'essenza. Il risultato della sintesi è una formazione completamente nuova, le cui proprietà non sono solo la connessione esterna di questi componenti, ma anche il risultato della loro interconnessione interna e interdipendenza.

L'analisi risolve principalmente quella cosa specifica che distingue le parti l'una dall'altra. La sintesi, invece, rivela quell'essenziale comune che lega le parti in un tutto unico.

Il ricercatore divide mentalmente l'oggetto nelle sue parti componenti per scoprire prima queste parti stesse, scoprire in cosa consiste il tutto, e poi considerarlo come costituito da queste parti, già esaminate separatamente. Analisi e sintesi sono in un'unità dialettica: il nostro pensiero è tanto analitico quanto sintetico.

Analisi e sintesi hanno origine nelle attività pratiche. Dividendo costantemente vari oggetti nelle loro parti componenti nella sua attività pratica, una persona ha gradualmente imparato a separare gli oggetti anche mentalmente. L'attività pratica consisteva non solo nello smembramento degli oggetti, ma anche nella riunificazione delle parti in un tutto unico. Su questa base sorsero gradualmente l'analisi e la sintesi mentale.

A seconda della natura dello studio dell'oggetto e della profondità di penetrazione nella sua essenza, vengono utilizzati vari tipi di analisi e sintesi.

1. Analisi e sintesi diretta o empirica - viene utilizzata, di regola, nella fase di conoscenza superficiale dell'oggetto. Questo tipo di analisi e sintesi permette di conoscere i fenomeni dell'oggetto in studio.

2. Analisi e sintesi teorica elementare - è ampiamente utilizzato come potente strumento per comprendere l'essenza del fenomeno oggetto di studio. Il risultato dell'applicazione di tale analisi e sintesi è l'instaurazione di relazioni di causa ed effetto, l'identificazione di vari modelli.

3. Analisi e sintesi strutturale-genetica: consente di approfondire l'essenza dell'oggetto in studio. Questo tipo di analisi e sintesi richiede l'isolamento di tali elementi in un fenomeno complesso che sono i più importanti, essenziali e hanno un'influenza determinante su tutti gli altri aspetti dell'oggetto in studio.

I metodi di analisi e di sintesi nel processo di ricerca scientifica funzionano indissolubilmente legati al metodo dell'astrazione.

astrazione (dal latino abstractio - distrazione) è un metodo logico generale della conoscenza scientifica, che è un'astrazione mentale da proprietà, connessioni, relazioni non essenziali degli oggetti oggetto di studio con la simultanea selezione mentale degli aspetti essenziali di interesse per il ricercatore, proprietà, connessioni di questi oggetti. La sua essenza sta nel fatto che una cosa, una proprietà o una relazione è mentalmente distinta e allo stesso tempo astratta da altre cose, proprietà, relazioni ed è considerata, per così dire, in una "forma pura".

L'astrazione nell'attività mentale umana ha un carattere universale, perché ogni fase del pensiero è associata a questo processo, o all'uso dei suoi risultati. L'essenza di questo metodo è che consente di astrarre mentalmente da proprietà secondarie non essenziali, connessioni, relazioni di oggetti e allo stesso tempo evidenziare mentalmente, fissare lati, proprietà, connessioni di questi oggetti che sono di interesse per la ricerca .

Distinguere tra il processo di astrazione e il risultato di questo processo, che è chiamato astrazione. Solitamente, il risultato dell'astrazione è inteso come conoscenza di alcuni aspetti degli oggetti oggetto di studio. Il processo di astrazione è un insieme di operazioni logiche che portano a tale risultato (astrazione). Esempi di astrazioni sono innumerevoli concetti che una persona opera non solo nella scienza, ma anche nella vita di tutti i giorni.

La domanda è cosa c'è dentro realtà oggettiva si distingue per il lavoro di astrazione del pensiero e da ciò che il pensiero è distratto, in ogni caso specifico viene deciso in base alla natura dell'oggetto in studio, nonché ai compiti dello studio. Nel corso del suo sviluppo storico, la scienza ascende da un livello di astrazione a un altro, superiore. Lo sviluppo della scienza in questo aspetto è, nelle parole di W. Heisenberg, "lo sviluppo di strutture astratte". Il passo decisivo nella sfera dell'astrazione è stato compiuto quando le persone hanno imparato a contare (numero), aprendo così la strada che porta alla matematica e alle scienze matematiche. A questo proposito, W. Heisenberg osserva: "I concetti, ottenuti inizialmente astraendo dall'esperienza specifica, prendono vita propria. Si rivelano più significativi e produttivi di quanto ci si potrebbe aspettare all'inizio. Nello sviluppo successivo, rivelano le proprie possibilità costruttive: contribuiscono alla costruzione di nuove forme e concetti, consentono di stabilire connessioni tra di loro e possono essere applicate entro certi limiti nei nostri tentativi di comprendere il mondo dei fenomeni.

Una breve analisi suggerisce che l'astrazione è una delle operazioni logiche cognitive più fondamentali. Pertanto, è il metodo più importante della ricerca scientifica. Il metodo di generalizzazione è strettamente correlato al metodo di astrazione.

Generalizzazione - il processo logico e il risultato di un passaggio mentale dall'individuo al generale, dal meno generale al più generale.

La generalizzazione scientifica non è solo una selezione mentale e una sintesi di caratteristiche simili, ma una penetrazione nell'essenza di una cosa: la percezione del singolo nel diverso, il generale nel singolare, il regolare nel casuale, così come l'unificazione di oggetti secondo proprietà o relazioni simili in gruppi omogenei, classi.

Nel processo di generalizzazione si passa da concetti singoli a concetti generali, da meno concetti generali- a quelli più generali, dai giudizi individuali - a quelli generali, dai giudizi di minore generalità - ai giudizi di maggiore generalità. Esempi di tale generalizzazione possono essere: un passaggio mentale dal concetto di "forma meccanica del movimento della materia" al concetto di "forma del movimento della materia" e, in generale, di "movimento"; dal concetto di "abete rosso" al concetto di "pianta di conifere" e, in generale, di "pianta"; dal giudizio "questo metallo è elettricamente conduttivo" al giudizio "tutti i metalli sono elettricamente conduttivi".

Nella ricerca scientifica vengono usati più spesso i seguenti tipi di generalizzazione: induttiva, quando il ricercatore passa da fatti individuali (singoli), eventi alla loro espressione generale nei pensieri; logico, quando il ricercatore passa da un pensiero, meno generale, a un altro, più generale. Il limite della generalizzazione sono le categorie filosofiche che non possono essere generalizzate perché non hanno un concetto generico.

Il passaggio logico da un pensiero più generale a uno meno generale è un processo di limitazione. In altre parole, è un'operazione logica, l'inverso della generalizzazione.

Va sottolineato che la capacità di una persona di astrarre e generalizzare si è formata e sviluppata sulla base della pratica sociale e della comunicazione reciproca tra le persone. È di grande importanza sia nell'attività conoscitiva delle persone che nel progresso generale della cultura materiale e spirituale della società.

Induzione (dal latino inductio - guida) - un metodo di conoscenza scientifica, in cui la conclusione generale è la conoscenza dell'intera classe di oggetti, ottenuta a seguito dello studio dei singoli elementi di questa classe. Nell'induzione, il pensiero del ricercatore va dal particolare, dal singolare attraverso il particolare, al generale e all'universale. L'induzione, come metodo logico di ricerca, è associata alla generalizzazione dei risultati di osservazioni ed esperimenti, al movimento del pensiero dall'individuo al generale. Poiché l'esperienza è sempre infinita e incompleta, le conclusioni induttive hanno sempre un carattere problematico (probabilistico). Le generalizzazioni induttive sono generalmente viste come verità empiriche o leggi empiriche. La base immediata dell'induzione è la ripetizione dei fenomeni della realtà e dei loro segni. Trovando caratteristiche simili in molti oggetti di una certa classe, giungiamo alla conclusione che queste caratteristiche sono inerenti a tutti gli oggetti di questa classe.

Per la natura della conclusione, si distinguono i seguenti gruppi principali di ragionamento induttivo:

1. Induzione completa - tale conclusione in cui viene tratta una conclusione generale su una classe di oggetti sulla base dello studio di tutti gli oggetti di questa classe. L'induzione completa produce conclusioni affidabili, motivo per cui è ampiamente utilizzata come prova nella ricerca scientifica.

2. Induzione incompleta - tale conclusione in cui si ottiene una conclusione generale da premesse che non coprono tutti gli oggetti di una data classe. Esistono due tipi di induzione incompleta: popolare o induzione tramite una semplice enumerazione. È una conclusione in cui si fa una conclusione generale su una classe di oggetti sulla base del fatto che tra i fatti osservati non ce n'era uno solo che contraddicesse la generalizzazione; scientifico, cioè una conclusione in cui si trae una conclusione generale su tutti gli oggetti della classe sulla base della conoscenza delle caratteristiche necessarie o relazioni causali alcuni degli elementi di questa classe. L'induzione scientifica può dare conclusioni non solo probabilistiche, ma anche affidabili. L'induzione scientifica ha i suoi metodi di cognizione. Il fatto è che è molto difficile stabilire una relazione causale dei fenomeni. Tuttavia, in alcuni casi, questa relazione può essere stabilita utilizzando tecniche logiche, dette metodi per stabilire una relazione causa-effetto, o metodi di induzione scientifica. Esistono cinque metodi di questo tipo:

1. Il metodo della singola somiglianza: se due o più casi del fenomeno in studio hanno una sola circostanza in comune, e tutte le altre circostanze sono diverse, allora questa unica circostanza simile è la causa di questo fenomeno:

Quindi -+ A è causa di a.

In altre parole, se le circostanze antecedenti ABC causano i fenomeni abc, e le circostanze ADE causano i fenomeni ade, allora si conclude che A è la causa di a (o che i fenomeni A e a sono causalmente correlati).

2. Il metodo di una singola differenza: se i casi in cui il fenomeno si verifica o non si verifica differiscono solo in uno: - la circostanza precedente, e tutte le altre circostanze sono identiche, allora questa unica circostanza è la causa di questo fenomeno:

In altre parole, se le circostanze antecedenti ABC provocano il fenomeno abc, e le circostanze BC (il fenomeno A viene eliminato nel corso dell'esperimento) provocano il fenomeno sole, allora si conclude che A è la causa di a. La base di questa conclusione è la scomparsa di a quando A viene eliminato.

3. Il metodo combinato di somiglianza e differenza è una combinazione dei primi due metodi.

4. Il metodo dei cambiamenti concomitanti: se il verificarsi o il cambiamento di un fenomeno ogni volta provoca necessariamente un certo cambiamento in un altro fenomeno, allora entrambi questi fenomeni sono in relazione causale tra loro:

Modifica Una modifica a

Invariato B, C

Quindi A è causa di a.

In altre parole, se un cambiamento nel fenomeno antecedente A cambia anche il fenomeno osservato a, mentre i restanti fenomeni antecedenti rimangono invariati, allora possiamo concludere che A è la causa di a.

5. Il metodo dei residui: se è noto che la causa del fenomeno in esame non sono le circostanze per esso necessarie, tranne una, allora questa circostanza è probabilmente la causa di questo fenomeno. Utilizzando il metodo dei residui, l'astronomo francese Neverier predisse l'esistenza del pianeta Nettuno, che fu presto scoperto dall'astronomo tedesco Halle.

I metodi considerati di induzione scientifica per stabilire relazioni causali sono spesso usati non in isolamento, ma in interconnessione, completandosi a vicenda. Il loro valore dipende principalmente dal grado di probabilità della conclusione che dà questo o quel metodo. Si ritiene che il metodo più potente sia il metodo della differenza e il più debole sia il metodo della somiglianza. Gli altri tre metodi sono intermedi. Questa differenza nel valore dei metodi si basa principalmente sul fatto che il metodo della somiglianza è principalmente associato all'osservazione e il metodo della differenza all'esperimento.

Anche una breve descrizione del metodo di induzione permette di accertarne il merito e l'importanza. Il significato di questo metodo risiede principalmente nella sua stretta connessione con i fatti, l'esperimento e la pratica. A questo proposito F. Bacone scrive: «Se intendiamo penetrare nella natura delle cose, allora ci rivolgiamo all'induzione ovunque, e quasi alla pratica.

Nella logica moderna, l'induzione è vista come una teoria dell'inferenza probabilistica. Si stanno tentando di formalizzare il metodo induttivo basato sulle idee della teoria della probabilità, che aiuterà a comprendere più chiaramente i problemi logici di questo metodo, nonché a determinarne il valore euristico.

Deduzione (dal latino deductio - inferenza) - un processo di pensiero in cui la conoscenza di un elemento di classe è derivata dalla conoscenza delle proprietà generali dell'intera classe. In altre parole, il pensiero del ricercatore in deduzione va dal generale al particolare (singolare). Ad esempio: "Tutti i pianeti sistema solare muoviti intorno al Sole"; "Pianeta-Terra"; quindi: "La Terra gira intorno al Sole". In questo esempio, il pensiero si sposta dal generale (prima premessa) al particolare (conclusione). Quindi il ragionamento deduttivo ti permette per conoscere meglio l'individuo, poiché con il suo aiuto otteniamo nuova conoscenza (inferenziale) che un dato oggetto ha una caratteristica che è inerente all'intera classe.

La base oggettiva della deduzione è che ogni oggetto combina l'unità del generale e dell'individuo. Questa connessione è inestricabile, dialettica, che permette di conoscere l'individuo sulla base della conoscenza del generale. Inoltre, se le premesse del ragionamento deduttivo sono vere e correttamente interconnesse, allora la conclusione - la conclusione sarà certamente vera. Questa caratteristica della deduzione si confronta favorevolmente con altri metodi di cognizione. Il fatto è che i principi e le leggi generali non consentono al ricercatore di smarrirsi nel processo di cognizione deduttiva, aiutano a comprendere correttamente i singoli fenomeni della realtà. Tuttavia, sarebbe sbagliato su questa base sopravvalutare il significato scientifico del metodo deduttivo. Infatti, affinché il potere formale dell'inferenza diventi propria, sono necessarie le premesse generali, che vengono utilizzate nel processo di deduzione, e acquisirle nella scienza è un compito di grande complessità.

L'importante significato cognitivo della deduzione si manifesta quando la premessa generale non è solo una generalizzazione induttiva, ma una sorta di ipotesi ipotetica, ad esempio una nuova idea scientifica. In questo caso, la deduzione è il punto di partenza per la nascita di un nuovo sistema teorico. La conoscenza teorica così creata predetermina la costruzione di nuove generalizzazioni induttive.

Tutto ciò crea i veri presupposti per un costante accrescimento del ruolo della deduzione nella ricerca scientifica. La scienza si confronta sempre più con oggetti inaccessibili alla percezione sensoriale (ad esempio il microcosmo, l'Universo, il passato dell'umanità, ecc.). Quando si conoscono oggetti di questo tipo, è molto più spesso necessario ricorrere al potere del pensiero che al potere dell'osservazione e dell'esperimento. La deduzione è indispensabile in tutte le aree della conoscenza in cui vengono formulate posizioni teoriche per descrivere sistemi formali piuttosto che reali, ad esempio in matematica. Poiché la formalizzazione nella scienza moderna è utilizzata sempre più ampiamente, il ruolo della deduzione nella conoscenza scientifica aumenta di conseguenza.

Tuttavia, il ruolo della deduzione nella ricerca scientifica non può essere assoluto, e ancor di più - non può essere opposto all'induzione e ad altri metodi di conoscenza scientifica. Gli estremi sia di natura metafisica che razionalistica sono inaccettabili. Al contrario, deduzione e induzione sono strettamente correlate e si completano a vicenda. La ricerca induttiva implica l'uso di teorie, leggi, principi generali, cioè include il momento della deduzione e la deduzione è impossibile senza disposizioni generali ottenute per induzione. In altre parole, induzione e deduzione sono necessariamente collegate come analisi e sintesi. Dobbiamo cercare di applicare ciascuno di essi al suo posto, e questo può essere ottenuto solo se non perdiamo di vista il loro legame reciproco, il loro reciproco complemento. "Le grandi scoperte", osserva L. de Broglie, "i balzi in avanti nel pensiero scientifico sono creati dall'induzione, un metodo rischioso, ma veramente creativo ... Certo, non si deve concludere che il rigore del ragionamento deduttivo non abbia valore. In infatti, solo impedisce all'immaginazione di cadere nell'errore, solo permette, dopo aver stabilito nuovi punti di partenza per induzione, di dedurre conseguenze e confrontare le conclusioni con i fatti. Solo una deduzione può fornire un test di ipotesi e fungere da valido antidoto contro una fantasia eccessivamente giocata”. Con un tale approccio dialettico, ciascuno dei suddetti e altri metodi di conoscenza scientifica saranno in grado di mostrare appieno tutti i suoi vantaggi.

Analogia. Studiando le proprietà, i segni, le connessioni di oggetti e i fenomeni della realtà reale, non possiamo conoscerli tutti in una volta, nella loro interezza, nella loro interezza, ma li studiamo gradualmente, rivelando sempre più proprietà passo dopo passo. Dopo aver studiato alcune delle proprietà di un oggetto, possiamo scoprire che coincidono con le proprietà di un altro oggetto già ben studiato. Avendo stabilito tale somiglianza e trovato molte caratteristiche corrispondenti, si può presumere che anche altre proprietà di questi oggetti coincidano. Il corso di tale ragionamento costituisce la base dell'analogia.

L'analogia è un tale metodo di ricerca scientifica, con l'aiuto del quale, dalla somiglianza degli oggetti di una data classe in alcune caratteristiche, si trae una conclusione sulla loro somiglianza in altre caratteristiche. L'essenza dell'analogia può essere espressa usando la formula:

A ha segni di aecd

B ha segni di ABC

Pertanto, B sembra avere la caratteristica d.

In altre parole, in analogia, il pensiero del ricercatore procede dalla conoscenza di una generalità nota alla conoscenza della stessa generalità, ovvero, in altre parole, da particolare a particolare.

Per quanto riguarda oggetti specifici, le conclusioni tratte per analogia sono, di regola, solo di natura plausibile: sono una delle fonti delle ipotesi scientifiche, del ragionamento induttivo, e svolgono un ruolo importante nella scoperte scientifiche. Ad esempio, la composizione chimica del Sole è simile alla composizione chimica della Terra in molti modi. Pertanto, quando l'elemento elio, che non era ancora noto sulla Terra, fu scoperto sul Sole, per analogia si concluse che un elemento simile dovrebbe trovarsi anche sulla Terra. La correttezza di questa conclusione è stata stabilita e confermata in seguito. Allo stesso modo L. de Broglie, avendo assunto una certa somiglianza tra le particelle di materia e il campo, giunse alla conclusione circa la natura ondulatoria delle particelle di materia.

Per aumentare la probabilità di conclusioni per analogia, è necessario sforzarsi di garantire che:

    non sono state rivelate solo le proprietà esterne degli oggetti confrontati, ma soprattutto quelle interne;

    questi oggetti erano simili nei tratti più importanti ed essenziali, e non in quelli accidentali e secondari;

    il cerchio dei segni corrispondenti era il più ampio possibile;

    non sono state prese in considerazione solo le somiglianze, ma anche le differenze, in modo che queste ultime non potessero essere trasferite su un altro oggetto.

Il metodo dell'analogia fornisce i risultati più preziosi quando si stabilisce una relazione organica non solo tra caratteristiche simili, ma anche con la caratteristica che viene trasferita all'oggetto in studio.

La verità delle conclusioni per analogia può essere confrontata con la verità delle conclusioni mediante il metodo dell'induzione incompleta. In entrambi i casi si possono ottenere conclusioni attendibili, ma solo quando ciascuno di questi metodi è applicato non in isolamento dagli altri metodi di conoscenza scientifica, ma in connessione dialettica inscindibile con essi.

Il metodo dell'analogia, inteso in modo estremamente ampio, come il trasferimento di informazioni su alcuni oggetti ad altri, è la base epistemologica della modellazione.

Modellazione - un metodo di conoscenza scientifica, con l'ausilio del quale si effettua lo studio di un oggetto (originale) creando la sua copia (modello), sostitutiva dell'originale, che viene poi appreso da alcuni aspetti di interesse per il ricercatore.

L'essenza del metodo di modellazione è riprodurre le proprietà dell'oggetto della conoscenza su un analogo appositamente creato, modello. Cos'è un modello?

Un modello (dal latino modulus - misura, immagine, norma) è un'immagine condizionata di un oggetto (originale), un certo modo di esprimere le proprietà, le relazioni degli oggetti e i fenomeni della realtà basato sull'analogia, stabilire somiglianze tra loro e, su su questa base, riproducendoli su una somiglianza materiale o oggettuale ideale. In altre parole, il modello è un analogo, un "sostituto" dell'oggetto originale, che nella cognizione e nella pratica serve ad acquisire e ampliare la conoscenza (informazioni) sull'originale per costruire l'originale, trasformarlo o controllarlo.

Deve esserci una certa somiglianza tra il modello e l'originale (relazione di somiglianza): caratteristiche fisiche, funzioni, comportamento dell'oggetto in studio, la sua struttura, ecc. È questa somiglianza che consente di trasferire le informazioni ottenute a seguito di studiando il modello all'originale.

Poiché la modellazione è molto simile al metodo dell'analogia, la struttura logica dell'inferenza per analogia è, per così dire, un fattore organizzativo che unisce tutti gli aspetti della modellazione in un unico processo mirato. Si potrebbe anche dire che, in un certo senso, la modellazione è una specie di analogia. Il metodo dell'analogia, per così dire, funge da base logica per le conclusioni tratte durante la modellazione. Ad esempio, sulla base dell'appartenenza al modello A delle caratteristiche abcd e dell'appartenenza all'originale A delle proprietà abc, si conclude che la proprietà d trovata nel modello A appartiene anche all'originale A.

L'uso della modellazione è dettato dalla necessità di rivelare tali aspetti degli oggetti che o sono impossibili da comprendere attraverso lo studio diretto, oppure è non redditizio studiarli per ragioni puramente economiche. Una persona, ad esempio, non può osservare direttamente il processo di formazione naturale dei diamanti, l'origine e lo sviluppo della vita sulla Terra, tutta una serie di fenomeni del micro e mega-mondo. Pertanto, si deve ricorrere alla riproduzione artificiale di tali fenomeni in una forma conveniente per l'osservazione e lo studio. In alcuni casi, è molto più redditizio ed economico costruire e studiare il suo modello invece di sperimentare direttamente con l'oggetto.

La modellazione è ampiamente utilizzata per calcolare le traiettorie dei missili balistici, per studiare la modalità di funzionamento di macchine e persino intere imprese, nonché nella gestione delle imprese, nella distribuzione delle risorse materiali, nello studio dei processi vitali nel corpo , nella società.

I modelli utilizzati nella conoscenza quotidiana e scientifica sono divisi in due grandi classi: reale, o materiale, e logico (mentale), o ideale. I primi sono oggetti naturali che obbediscono alle leggi naturali nel loro funzionamento. Riproducono materialmente il tema della ricerca in forma più o meno visiva. I modelli logici sono formazioni ideali fissate nella forma simbolica appropriata e funzionanti secondo le leggi della logica e della matematica. L'importanza dei modelli iconici sta nel fatto che, con l'aiuto dei simboli, permettono di rivelare tali connessioni e relazioni della realtà che sono quasi impossibili da rilevare con altri mezzi.

Nella fase attuale del progresso scientifico e tecnologico, la modellazione informatica si è diffusa nella scienza e in vari campi della pratica. Un computer in esecuzione su un programma speciale è in grado di simulare un'ampia varietà di processi, ad esempio le fluttuazioni dei prezzi di mercato, la crescita della popolazione, il decollo e l'entrata in orbita di un satellite artificiale terrestre, reazioni chimiche ecc. Lo studio di ciascuno di tali processi viene effettuato mediante un opportuno modello informatico.

Metodo di sistema . La fase moderna della conoscenza scientifica è caratterizzata dall'importanza sempre crescente del pensiero teorico e delle scienze teoriche. Un posto importante tra le scienze è occupato dalla teoria dei sistemi, che analizza i metodi di ricerca sui sistemi. La dialettica dello sviluppo degli oggetti e dei fenomeni della realtà trova l'espressione più adeguata nel metodo cognitivo sistemico.

Il metodo del sistema è un insieme di principi metodologici scientifici generali e metodi di ricerca, che si basano su un orientamento a rivelare l'integrità di un oggetto come sistema.

La base del metodo di sistema è il sistema e la struttura, che possono essere definiti come segue.

Un sistema (dal greco systema - un tutto fatto di parti; connessione) è una posizione scientifica generale che esprime un insieme di elementi che sono interconnessi sia tra loro che con l'ambiente e formano una certa integrità, l'unità dell'oggetto in fase di studio. I tipi di sistemi sono molto diversi: materiale e spirituale, inorganico e vivente, meccanico e organico, biologico e sociale, statico e dinamico, ecc. Inoltre, ogni sistema è una combinazione di vari elementi che costituiscono la sua struttura specifica. Cos'è una struttura?

Struttura ( dal lat. structura - struttura, disposizione, ordine) è un modo relativamente stabile (legge) di collegare gli elementi di un oggetto, che garantisce l'integrità di un particolare sistema complesso.

La specificità dell'approccio sistemico è determinata dal fatto che incentra lo studio sulla divulgazione dell'integrità dell'oggetto e sui meccanismi che la assicurano, sull'identificazione di diversi tipi di connessioni di un oggetto complesso e sulla loro riduzione in un unico quadro teorico.

Il principio fondamentale della teoria generale dei sistemi è il principio dell'integrità del sistema, che significa considerare la natura, compresa la società, come un sistema ampio e complesso, che si decompone in sottosistemi, che agisce in determinate condizioni come sistemi relativamente indipendenti.

Tutta la varietà di concetti e di approcci nella teoria generale dei sistemi può, con un certo grado di astrazione, essere divisa in due grandi classi di teorie: empirico-intuitiva e astratta-deduttiva.

1. Nei concetti empirico-intuitivi, gli oggetti concreti, realmente esistenti, sono considerati l'oggetto primario della ricerca. Nel processo di ascesa dal concreto-singolare al generale, vengono formulati i concetti di sistema ei principi sistemici della ricerca ai diversi livelli. Questo metodo ha una somiglianza esteriore con il passaggio dall'individuo al generale nella cognizione empirica, ma una certa differenza si nasconde dietro la somiglianza esterna. Consiste nel fatto che se il metodo empirico procede dal riconoscimento del primato degli elementi, allora l'approccio sistematico procede dal riconoscimento del primato dei sistemi. Nell'approccio sistemico, come inizio dello studio, i sistemi sono presi come una formazione olistica, costituita da molti elementi, insieme alle loro connessioni e relazioni, soggetta a determinate leggi; il metodo empirico si limita alla formulazione di leggi che esprimono la relazione tra gli elementi di un dato oggetto o un dato livello di fenomeni. E sebbene ci sia un momento di generalità in queste leggi, questa generalità, tuttavia, appartiene per la maggior parte a una ristretta classe di oggetti con lo stesso nome.

2. Nei concetti astratto-deduttivi, gli oggetti astratti sono presi come punto di partenza della ricerca - sistemi caratterizzati dalla limitazione proprietà comuni e relazioni. L'ulteriore discesa da sistemi estremamente generali a sistemi sempre più specifici è accompagnata contemporaneamente dalla formulazione di tali principi sistemici che si applicano a classi di sistemi concretamente definite.

Gli approcci empirico-intuitivi e astratto-deduttivi sono ugualmente legittimi, non sono opposti tra loro, ma al contrario, il loro uso congiunto apre opportunità cognitive estremamente grandi.

Il metodo del sistema permette di interpretare scientificamente i principi di organizzazione dei sistemi. Il mondo oggettivamente esistente agisce come un mondo di determinati sistemi. Un tale sistema è caratterizzato non solo dalla presenza di componenti ed elementi interconnessi, ma anche da un loro certo ordine, organizzazione sulla base di un certo insieme di leggi. Pertanto, i sistemi non sono caotici, ma ordinati e organizzati in un certo modo.

Nel processo di ricerca, ovviamente, si può "salire" dagli elementi ai sistemi integrali, così come viceversa - dai sistemi integrali agli elementi. Ma in ogni circostanza, la ricerca non può essere isolata da connessioni e relazioni sistemiche. Ignorare tali connessioni porta inevitabilmente a conclusioni unilaterali o errate. Non è un caso che nella storia della cognizione il meccanismo semplice e unilaterale di spiegazione dei fenomeni biologici e sociali sia scivolato in posizioni di riconoscimento del primo impulso e della sostanza spirituale.

Sulla base di quanto sopra, si possono distinguere i seguenti requisiti principali del metodo di sistema:

Individuazione della dipendenza di ciascun elemento dal suo posto e dalle sue funzioni nel sistema, tenendo conto del fatto che le proprietà dell'insieme non sono riducibili alla somma delle proprietà dei suoi elementi;

Analisi della misura in cui il comportamento del sistema è dovuto sia alle caratteristiche dei suoi singoli elementi che alle proprietà della sua struttura;

Studio del meccanismo di interdipendenza, interazione tra il sistema e l'ambiente;

Lo studio della natura della gerarchia inerente a questo sistema;

Garantire la pluralità di descrizioni ai fini della copertura multidimensionale del sistema;

Considerazione del dinamismo del sistema, la sua presentazione come integrità in via di sviluppo.

Un concetto importante dell'approccio sistemico è il concetto di "auto-organizzazione". Caratterizza il processo di creazione, riproduzione o miglioramento dell'organizzazione di un sistema complesso, aperto, dinamico, auto-sviluppante, i cui legami tra gli elementi non sono rigidi, ma probabilistici. Le proprietà dell'autorganizzazione sono inerenti a oggetti di natura molto diversa: una cellula vivente, un organismo, una popolazione biologica, collettività umane.

La classe dei sistemi capaci di auto-organizzazione è quella dei sistemi aperti e non lineari. L'apertura del sistema significa la presenza di sorgenti e sprofonda in esso, lo scambio di materia ed energia con ambiente. Tuttavia, non tutti i sistemi aperti si organizzano, costruiscono strutture, perché tutto dipende dal rapporto di due principi: sulla base che crea la struttura e sulla base che disperde, offusca questo principio.

Nella scienza moderna, i sistemi di auto-organizzazione sono un argomento speciale di studio della sinergia - una teoria scientifica generale dell'auto-organizzazione, incentrata sulla ricerca delle leggi dell'evoluzione dei sistemi aperti di non equilibrio di qualsiasi base - naturale, sociale, cognitivo (cognitivo).

Attualmente, il metodo del sistema sta acquisendo un significato metodologico sempre maggiore nella risoluzione di problemi di scienze naturali, socio-storici, psicologici e di altro tipo. È ampiamente utilizzato da quasi tutte le scienze, il che è dovuto alle urgenti esigenze epistemologiche e pratiche dello sviluppo della scienza nella fase attuale.

Metodi probabilistici (statistici). - si tratta di metodi con cui si studia l'azione di un insieme di fattori casuali, caratterizzati da una frequenza stabile, che permette di rilevare un bisogno che “sfonda” attraverso l'azione cumulativa di un insieme di possibilità.

I metodi probabilistici sono formati sulla base della teoria della probabilità, che è spesso chiamata la scienza della casualità, e secondo molti scienziati, probabilità e casualità sono praticamente indissolubili. Le categorie di necessità e contingenza non sono affatto obsolete, anzi, il loro ruolo nella scienza moderna è cresciuto incommensurabilmente. Come ha mostrato la storia della conoscenza, "solo ora cominciamo ad apprezzare il significato dell'intera gamma di problemi associati alla necessità e al caso".

Per comprendere l'essenza dei metodi probabilistici, è necessario considerare i loro concetti di base: "modelli dinamici", "modelli statistici" e "probabilità". I due tipi di regolarità di cui sopra differiscono nella natura delle previsioni che ne conseguono.

Nelle leggi di tipo dinamico, le previsioni non sono ambigue. Le leggi dinamiche caratterizzano il comportamento di oggetti relativamente isolati, costituiti da non un largo numero elementi in cui è possibile astrarre da una serie di fattori casuali, il che rende possibile prevedere in modo più accurato, ad esempio, nella meccanica classica.

Nelle leggi statistiche, le previsioni non sono affidabili, ma solo probabilistiche. Questa natura delle previsioni è dovuta all'azione di molti fattori casuali che si verificano in fenomeni statistici o eventi di massa, ad esempio un gran numero di molecole in un gas, il numero di individui nelle popolazioni, il numero di persone in grandi gruppi, eccetera.

Una regolarità statistica sorge come risultato dell'interazione di un gran numero di elementi che compongono un oggetto - un sistema, e quindi caratterizza non tanto il comportamento di un singolo elemento quanto l'oggetto nel suo insieme. La necessità che si manifesta nelle leggi statistiche nasce come risultato della compensazione reciproca e del bilanciamento di molti fattori casuali. "Sebbene le regolarità statistiche possano portare ad affermazioni il cui grado di probabilità è così alto da rasentare la certezza, tuttavia, in linea di principio, sono sempre possibili eccezioni" .

Le leggi statistiche, sebbene non forniscano previsioni univoche e affidabili, sono tuttavia le uniche possibili nello studio dei fenomeni di massa di natura casuale. Dietro l'azione combinata di vari fattori di natura casuale, praticamente impossibili da catturare, le leggi statistiche rivelano qualcosa di stabile, necessario, ripetitivo. Servono come conferma della dialettica del passaggio dell'accidentale nel necessario. Le leggi dinamiche risultano essere il caso limite di quelle statistiche, quando la probabilità diventa praticamente certezza.

La probabilità è un concetto che caratterizza una misura quantitativa (grado) della possibilità del verificarsi di un evento casuale in determinate condizioni che possono essere ripetute più volte. Uno dei compiti principali della teoria della probabilità è chiarire le regolarità derivanti dall'interazione di un gran numero di fattori casuali.

I metodi probabilistico-statistici sono ampiamente utilizzati nello studio dei fenomeni di massa, specialmente in discipline scientifiche come la statistica matematica, la fisica statistica, la meccanica quantistica, la cibernetica, la sinergia.

Condividere