Concepts et méthodes des sciences naturelles modernes - résumé. Les mesures sont le fondement de la vérité scientifique

Concepts et méthodes des sciences naturelles modernes - résumé. Les mesures sont le fondement de la vérité scientifique

2) révéler la possibilité d'utiliser dans la pratique les lois, forces et substances connues de la nature.

Le but des sciences naturelles, en fin de compte, est une tentative de résoudre les soi-disant "énigmes du monde" formulées à la fin du 19ème siècle par E. Haeckel et E.G. Dubois-Reymond. Deux de ces énigmes sont liées à la physique, deux à la biologie et trois à la psychologie. Voici les énigmes :

    essence de la matière et de la force

    origine du mouvement

    origine de la vie

    opportunisme de la nature

    émergence de la sensation et de la conscience

    émergence de la pensée et de la parole

    libre arbitre.

La tâche des sciences naturelles est la connaissance des lois objectives de la nature et la promotion de leur utilisation pratique dans l'intérêt de l'homme. Les connaissances en sciences naturelles sont créées à la suite de la généralisation des observations obtenues et accumulées au cours des activités pratiques des personnes, et constituent elles-mêmes la base théorique de leurs activités.

Toutes les études de la nature aujourd'hui peuvent être visualisées comme un vaste réseau composé de branches et de nœuds. Ce réseau relie de nombreuses branches des sciences physiques, chimiques et biologiques, y compris les sciences de synthèse, qui sont nées à la jonction des grandes directions (biochimie, biophysique, etc.).

Même en étudiant l'organisme le plus simple, nous devons tenir compte du fait qu'il s'agit d'une unité mécanique, d'un système thermodynamique et d'un réacteur chimique avec des flux multidirectionnels de masses, de chaleur et d'impulsions électriques ; c'est en même temps une sorte de "machine électrique" qui génère et absorbe des rayonnements électromagnétiques. Et, en même temps, ce n'est ni l'un ni l'autre, c'est un tout.

    méthodes des sciences naturelles

Le processus de la connaissance scientifique dans sa forme la plus générale est la solution de divers types de problèmes qui se posent au cours d'activités pratiques. La solution des problèmes qui se posent dans ce cas est obtenue en utilisant des techniques (méthodes) spéciales qui permettent de passer de ce qui est déjà connu à de nouvelles connaissances. Un tel système de techniques est généralement appelé une méthode. Méthode est un ensemble de méthodes et d'opérations de connaissance pratique et théorique de la réalité.

L'unité de ses aspects empiriques et théoriques sous-tend les méthodes des sciences naturelles. Ils sont liés et se conditionnent mutuellement. Leur rupture, ou le développement prédominant de l'un aux dépens de l'autre, ferme la voie à la connaissance correcte de la nature - la théorie devient inutile, l'expérience devient aveugle.

Le côté empirique implique la nécessité de collecter des faits et des informations (établissement des faits, leur enregistrement, accumulation), ainsi que leur description (énoncé des faits et leur systématisation primaire).

Côté théorique associés à l'explication, la généralisation, la création de nouvelles théories, les hypothèses, la découverte de nouvelles lois, la prédiction de nouveaux faits dans le cadre de ces théories. Avec leur aide, une image scientifique du monde est développée et ainsi la fonction idéologique de la science est réalisée.

Les méthodes des sciences naturelles peuvent être divisées en groupes:

a) méthodes générales concernant toute science naturelle, tout sujet de la nature, toute science. ce Formes variées une méthode qui permet de relier tous les aspects du processus de cognition, toutes ses étapes, par exemple, la méthode de remontée de l'abstrait au concret, l'unité du logique et de l'historique. Ce sont plutôt des méthodes philosophiques générales de cognition.

b) méthodes spéciales- les méthodes spéciales qui ne concernent pas l'objet des sciences naturelles dans son ensemble, mais seulement un de ses aspects ou une certaine méthode de recherche : analyse, synthèse, induction, déduction ;

Les méthodes spéciales comprennent également l'observation, la mesure, la comparaison et l'expérimentation.

En sciences naturelles, les méthodes scientifiques spéciales sont de la plus haute importance, par conséquent, dans le cadre de notre cours, il est nécessaire d'examiner leur essence plus en détail.

Surveillance - c'est un processus strict et délibéré de perception des objets de la réalité qui ne devrait pas être modifié. Historiquement, la méthode d'observation se développe comme partie intégrante de l'opération de travail, qui comprend l'établissement de la conformité du produit du travail avec son modèle prévu.

L'observation comme méthode suppose la présence d'un programme de recherche, formé sur la base de croyances passées, de faits établis, de concepts acceptés. La mesure et la comparaison sont des cas particuliers de la méthode d'observation.

Expérience - méthode de cognition, à l'aide de laquelle les phénomènes de la réalité sont étudiés dans des conditions contrôlées et contrôlées. Elle diffère de l'observation par intervention sur l'objet étudié, c'est-à-dire par activité en relation avec lui. Lors de la conduite d'une expérience, le chercheur ne se limite pas à l'observation passive des phénomènes, mais interfère consciemment dans le cours naturel de leur évolution en influençant directement le processus étudié ou en modifiant les conditions dans lesquelles ce processus se déroule.

Le développement des sciences naturelles pose le problème de la rigueur de l'observation et de l'expérimentation. Le truc c'est qu'ils ont besoin outils spéciaux et des dispositifs qui sont récemment devenus si complexes qu'ils commencent eux-mêmes à influencer l'objet d'observation et d'expérimentation, ce qui, selon les conditions, ne devrait pas l'être. Cela s'applique principalement à la recherche dans le domaine de la physique des micromondes (mécanique quantique, électrodynamique quantique, etc.).

Analogie - une méthode de cognition dans laquelle se produit le transfert des connaissances obtenues lors de la considération d'un objet à un autre, moins étudié et en cours d'étude. La méthode d'analogie est basée sur la similitude des objets dans un certain nombre de signes, ce qui vous permet d'obtenir des connaissances assez fiables sur le sujet étudié.

L'utilisation de la méthode par analogie dans les connaissances scientifiques requiert une certaine prudence. Ici, il est extrêmement important d'identifier clairement les conditions dans lesquelles il fonctionne le plus efficacement. Cependant, dans les cas où il est possible de développer un système de règles clairement formulées pour transférer les connaissances d'un modèle à un prototype, les résultats et les conclusions par la méthode d'analogie deviennent probants.

Une analyse - méthode de connaissance scientifique, qui est basée sur la procédure de démembrement mental ou réel d'un objet en ses parties constituantes. Le démembrement vise le passage de l'étude du tout à l'étude de ses parties et s'effectue en faisant abstraction de la connexion des parties entre elles.

La synthèse - il s'agit d'une méthode de connaissance scientifique, qui est basée sur la procédure consistant à combiner divers éléments d'un objet en un seul tout, un système, sans lequel une connaissance véritablement scientifique de cet objet est impossible. La synthèse n'agit pas comme une méthode de construction du tout, mais comme une méthode de représentation du tout sous la forme d'une unité de connaissance obtenue par analyse. En synthèse, non seulement une union se produit, mais une généralisation des caractéristiques analytiquement distinguées et étudiées d'un objet. Les dispositions obtenues à la suite de la synthèse sont incluses dans la théorie de l'objet, qui, s'enrichissant et s'affinant, détermine les voies d'une nouvelle recherche scientifique.

induction - méthode de connaissance scientifique, qui est la formulation d'une conclusion logique en résumant les données d'observation et d'expérience.

Déduction - méthode de connaissance scientifique, qui consiste à passer de certaines prémisses générales à des résultats-conséquences particuliers.

La solution de tout problème scientifique comprend l'avancement de diverses conjectures, hypothèses et le plus souvent d'hypothèses plus ou moins étayées, à l'aide desquelles le chercheur tente d'expliquer des faits qui ne rentrent pas dans les anciennes théories. Les hypothèses surgissent dans des situations incertaines, dont l'explication devient pertinente pour la science. De plus, au niveau des connaissances empiriques (ainsi qu'au niveau de leur explication), il y a souvent des jugements contradictoires. Pour résoudre ces problèmes, des hypothèses sont nécessaires.

Hypothèse est toute conjecture, conjecture ou prédiction avancée pour éliminer une situation d'incertitude dans recherche scientifique. Par conséquent, une hypothèse n'est pas une connaissance fiable, mais une connaissance probable, dont la vérité ou la fausseté n'a pas encore été établie.

Toute hypothèse doit nécessairement être étayée soit par la connaissance acquise d'une science donnée, soit par des faits nouveaux (la connaissance incertaine n'est pas utilisée pour étayer une hypothèse). Elle doit avoir la propriété d'expliquer tous les faits qui se rapportent à un domaine de connaissance donné, de les systématiser, ainsi que les faits extérieurs à ce domaine, de prédire l'émergence de faits nouveaux (par exemple, l'hypothèse quantique de M. Planck, mise en avant au début du XXe siècle, a conduit à la création d'une mécanique quantique, d'une électrodynamique quantique et d'autres théories). Dans ce cas, l'hypothèse ne doit pas contredire les faits déjà existants. L'hypothèse doit être soit confirmée, soit infirmée.

c) méthodes privées- ce sont des méthodes qui opèrent soit uniquement dans une branche distincte des sciences naturelles, soit en dehors de la branche des sciences naturelles d'où elles sont issues. C'est la méthode de baguage des oiseaux utilisée en zoologie. Et les méthodes de la physique utilisées dans d'autres branches des sciences naturelles ont conduit à la création de l'astrophysique, de la géophysique, de la physique des cristaux, etc. Souvent, un complexe de méthodes particulières interdépendantes est appliqué à l'étude d'un sujet. Par exemple, la biologie moléculaire utilise simultanément les méthodes de la physique, des mathématiques, de la chimie et de la cybernétique.

La modélisation est une méthode de connaissance scientifique basée sur l'étude d'objets réels à travers l'étude de modèles de ces objets, c'est-à-dire en étudiant des objets de substitution d'origine naturelle ou artificielle plus accessibles à la recherche et (ou) à l'intervention et ayant les propriétés d'objets réels.

Les propriétés de n'importe quel modèle ne doivent pas, et en effet ne peuvent pas, correspondre exactement et complètement à absolument toutes les propriétés de l'objet réel correspondant dans toutes les situations. Dans les modèles mathématiques, tout paramètre supplémentaire peut conduire à une complication importante de la solution du système d'équations correspondant, à la nécessité d'appliquer des hypothèses supplémentaires, d'écarter les petits termes, etc., en simulation numérique, le temps de traitement du problème par le ordinateur augmente de manière disproportionnée, et l'erreur de calcul augmente.

Conclusion

Les sciences naturelles sont apparues il y a plus de 3000 ans. Ensuite, il n'y avait pas de division en physique, biologie, géographie. Les philosophes faisaient de la science. Avec le développement du commerce et de la navigation, le développement de la géographie a commencé, et avec le développement de la technologie, le développement de la physique et de la chimie.

Les sciences naturelles sont un domaine très ramifié de la connaissance scientifique, affectant un large éventail de questions sur divers aspects de la vie de la nature. La nature en tant qu'objet d'étude des sciences naturelles est complexe et diverse dans ses manifestations : elle change constamment et est en mouvement constant. Ainsi, cette diversité se reflète dans en grand nombre concepts consacrés à presque tous les processus et phénomènes naturels. Une étude attentive de ceux-ci montre que l'univers est régulier et prévisible ; la matière est composée d'atomes et particules élémentaires; les propriétés des objets matériels dépendent des atomes inclus dans leur composition et de la manière dont ils y sont situés; les atomes sont constitués de quarks et de leptons ; les étoiles naissent et meurent comme tout le reste du monde ; L'univers est né dans un passé lointain et n'a cessé de s'étendre depuis; tous les êtres vivants sont constitués de cellules et tous les organismes sont apparus à la suite de la sélection naturelle ; les processus naturels sur Terre se produisent par cycles ; des changements se produisent constamment à sa surface et il n'y a rien d'éternel, etc. Dans l'ensemble, le monde est à la fois un et étonnamment divers, il est éternel et sans fin dans le processus incessant de transformation mutuelle de certains systèmes en d'autres, tandis que chaque partie elle est relativement indépendante, étant inévitablement dépendante des lois générales de l'être.

Liste de la littérature utilisée

La base du développement de la modernité sciences naturelles constitue une méthodologie scientifique spécifique. La base méthodologie scientifique mettre une expérience- basée sur la pratique de la connaissance sensorielle-empirique de la réalité. En dessous de pratique désigne une activité humaine objective visant à obtenir des résultats matériels.

Au cours de son développement, la science naturelle classique a développé un type spécifique de pratique, appelé "expérience scientifique". expérience scientifique- c'est aussi l'activité objective des gens, mais déjà destinée à vérifier les dispositions scientifiques. On croit qu'une position scientifique correspond à la vérité si elle est confirmée par l'expérience, la pratique ou l'expérimentation scientifique.

En plus d'interagir avec l'expérience, lors de l'élaboration de théories scientifiques, ils utilisent parfois purement critères logiques: cohérence interne, considérations de symétrie, voire des considérations aussi vagues que la « beauté » de l'hypothèse. Cependant Les juges finaux de la théorie scientifique sont toujours la pratique et l'expérience..

Comme exemple de « belle » hypothèse, je citerai l'hypothèse du physicien américain Feynman sur l'identité des particules élémentaires. Le fait est qu'ils ont une propriété absolument fantastique. Les particules élémentaires d'un type, par exemple les électrons, sont indiscernables. S'il y a deux électrons dans le système et que l'un d'eux a été supprimé, nous ne pourrons jamais déterminer lequel d'entre eux a été supprimé et lequel est resté. Pour expliquer cette indiscernabilité, Feynman a suggéré qu'il n'y a qu'un seul électron dans le monde qui peut aller et venir dans le temps. À chaque instant, nous percevons cet électron unique comme une multitude d'électrons, qui, bien sûr, sont indiscernables. C'est en fait le même électron. N'est-ce pas une bonne hypothèse ? Ce ne serait pas mal pour vous de pouvoir proposer quelque chose de similaire, mais dans le domaine de l'économie.

Étapes de la résolution d'un problème scientifique

L'interaction avec l'expérience a nécessité que la science développe un mécanisme spécifique d'interprétation des données expérimentales. Elle consiste à appliquer l'idéalisation et l'abstraction à ces données.

L'essence de l'idéalisation consiste à écarter les aspects du phénomène étudié qui ne sont pas indispensables à sa solution.

Le côté d'un phénomène ou d'un objet est une propriété qui lui est inhérente, qui peut l'être ou non. Par exemple, le manche d'une hache d'incendie peut ou non être peint en rouge. Dans le même temps, la hachette ne changera pas ses autres propriétés.

Les côtés du phénomène peuvent être plus ou moins significatifs à cet égard. Ainsi, la couleur du manche de la hachette ne joue aucun rôle par rapport à son objectif principal - couper du bois. Dans le même temps, la présence d'une couleur vive est essentielle lorsque l'on recherche une hachette en situation extrême. D'un point de vue esthétique, utiliser une couleur rouge vif pour colorer un instrument peut paraître insipide. Ainsi, dans le processus d'idéalisation, les côtés d'un phénomène doivent toujours être évalués sous cet aspect particulier.

Dans le processus d'idéalisation, les aspects du phénomène qui sont insignifiants à l'égard considéré sont écartés. Les aspects essentiels restants sont soumis à un processus d'abstraction.

abstraction consiste à passer d'une appréciation qualitative des acteurs concernés à une appréciation quantitative.

En même temps, les relations qualitatives revêtent les « vêtements » des relations mathématiques. Habituellement, des caractères quantitatifs auxiliaires interviennent et les lois connues auxquelles ces caractères sont soumis sont appliquées. Le processus d'abstraction conduit à la création d'un modèle mathématique du processus à l'étude.

Par exemple, un sac de boxe marron pesant 80 kg et coûtant 55 unités conventionnelles tombe de la fenêtre du sixième étage d'un immeuble neuf. Il est nécessaire de déterminer la quantité de chaleur dégagée au moment de son contact avec l'asphalte.

Pour résoudre le problème, il faut tout d'abord faire une idéalisation. Ainsi, le coût du sac et sa couleur ne sont pas pertinents par rapport à la tâche à résoudre. Lors d'une chute d'une hauteur relativement faible, le frottement contre l'air peut également être négligé. De ce fait, la forme et la taille du sac s'avèrent insignifiantes par rapport à ce problème. Par conséquent, lorsque l'on considère le processus de chute, le modèle d'un point matériel peut être appliqué au sac (un point matériel est un corps dont la forme et la taille peuvent être négligées dans les conditions de ce problème).

Le processus d'abstraction donne la hauteur de la fenêtre du sixième étage d'un nouveau bâtiment approximativement égale à 15 m. Si nous supposons que le processus d'interaction d'un sac avec de l'asphalte obéit aux lois fondamentales de la théorie de la chaleur, alors pour déterminer la quantité de chaleur dégagée lors de sa chute, il suffit de retrouver l'énergie cinétique de ce sac au moment du contact avec l'asphalte. Enfin, le problème peut être formulé de la manière suivante: trouver l'énergie cinétique qu'acquiert un point matériel de masse 80 kg en tombant d'une hauteur de 15 m Outre les lois de la thermodynamique, la loi de conservation de l'énergie mécanique totale est également utilisée dans le processus d'abstraction. Le calcul utilisant ces lois conduira à la solution du problème.

L'ensemble des relations mathématiques qui permettent de résoudre le problème est modèle mathématique de la solution.

Il convient de noter ici que l'idéalisation, essentiellement basée sur le rejet des aspects non essentiels du phénomène, conduit inévitablement à une certaine perte d'information sur le processus décrit. Le paradigme légitime l'idéalisation et donne l'impression qu'elle va de soi. Par conséquent, sous l'influence du paradigme, l'idéalisation est souvent utilisée même dans les cas où elle est injustifiée, ce qui, bien sûr, conduit à des erreurs. Afin d'éviter de telles erreurs, l'académicien A. S. Predvoditelev a proposé le principe de dualité. Le principe de dualité nous enseigne à considérer tout problème de deux points de vue alternatifs, en écartant ses différents aspects dans le processus d'idéalisation. Avec cette approche, la perte d'informations peut être évitée.

Méthodes phénoménologiques et modèles

Il existe deux types d'interaction entre la théorie scientifique et l'expérience : phénoménologique et modèle.

Le nom de la méthode phénoménologique vient du mot grec «phénomène», qui signifie phénomène. Il s'agit d'une méthode empirique, c'est-à-dire basée sur l'expérience.

La tâche doit d'abord être définie. Cela signifie que les conditions initiales et le but du problème à résoudre doivent être formulés avec précision.

Après cela, la méthode prescrit de suivre les étapes suivantes pour le résoudre :
  1. Accumulation de matériaux expérimentaux.
  2. Traitement, systématisation et généralisation de ces matériaux.
  3. Établir des relations et, par conséquent, connexions possibles entre les valeurs obtenues à la suite du traitement. Ces rapports constituent des régularités empiriques.
  4. Obtenir, sur la base de régularités empiriques, des prévisions qui prédisent résultats possibles vérification expérimentale.
  5. Vérification expérimentale et comparaison de ses résultats avec ceux prédits.

Si les données prédites et les résultats des tests concordent toujours avec un degré de précision satisfaisant, alors la régularité reçoit le statut d'une loi des sciences naturelles.

Si une telle correspondance n'est pas obtenue, la procédure est répétée à partir de l'étape 1.

La théorie phénoménologique est généralement une généralisation des résultats expérimentaux. L'apparition d'une expérience qui contredit cette théorie conduit à un raffinement du domaine de son applicabilité ou à l'introduction de raffinements dans la théorie elle-même. Ainsi, plus une théorie phénoménologique a de réfutations, plus elle devient précise.

Des exemples de théories phénoménologiques sont la thermodynamique classique, les relations phénoménologiques liées au domaine de la cinétique physique et chimique, les lois de diffusion, la conduction thermique, etc.

Les théories des modèles utilisent la méthode déductive. Apparemment pour la première fois justification scientifique de cette méthode ont été donnés par le célèbre philosophe français René Descartes. La justification de la méthode déductive est contenue dans son célèbre traité De la méthode.

La création d'une théorie modèle commence par l'avancement d'une hypothèse scientifique - une hypothèse concernant l'essence du phénomène à l'étude. Sur la base de l'hypothèse, par abstraction, un modèle mathématique est créé qui reproduit les principaux modèles du phénomène étudié à l'aide de relations mathématiques. Les conséquences obtenues à partir de ces relations sont comparées à l'expérience. Si l'expérience confirme les résultats des calculs théoriques effectués sur la base de ce modèle, elle est alors considérée comme correcte. L'apparition d'une réfutation expérimentale conduit au rejet d'une hypothèse et à la promotion d'une nouvelle.

Un exemple de théorie des modèles est la description classique de la dispersion de la lumière. Il est basé sur l'idée avancée par J. Thomson de l'atome comme un groupe de charges positives, dans lequel, comme les graines d'une pastèque, des électrons négatifs sont intercalés. La théorie classique de la dispersion donne un bon accord qualitatif avec l'expérience. Cependant, déjà les expériences de Rutherford pour déterminer la structure de l'atome ont montré l'échec de l'hypothèse principale et conduit au rejet complet de la théorie classique de la dispersion.

Les théories des modèles semblent à première vue moins attractives que les théories phénoménologiques. Néanmoins, ils permettent une compréhension plus approfondie des mécanismes internes des phénomènes considérés. Souvent, les théories des modèles sont raffinées et continuent d'exister dans une nouvelle capacité. Ainsi, pour expliquer la nature des forces nucléaires, les scientifiques russes Ivanenko et Tamm ont avancé une hypothèse selon laquelle l'interaction des particules nucléaires se produit du fait qu'elles échangent des électrons. L'expérience a montré que les caractéristiques des électrons ne correspondent pas à l'échelle d'interaction requise. Un peu plus tard, en s'appuyant sur le modèle d'Ivanenko et Tamm, le japonais Yukawa a suggéré que l'interaction nucléaire est réalisée par des particules qui ont des caractéristiques similaires à celles des électrons, et une masse environ deux cents fois supérieure. Par la suite, les particules décrites par Yukawa ont été découvertes expérimentalement. Ils sont appelés mésons.

Les mesures sont le fondement de la vérité scientifique

Une expérience scientifique nécessite des résultats quantitatifs précis. Pour cela, des mesures sont utilisées. Les mesures sont étudiées par une branche spéciale de la science - la métrologie.

Les mesures sont directes ou indirectes.. Les résultats de la mesure directe sont obtenus directement, généralement en lisant les échelles et les indicateurs des instruments de mesure. Les résultats des mesures indirectes sont obtenus par des calculs utilisant les résultats des mesures directes.

Ainsi, pour mesurer le volume d'un parallélépipède rectangle, vous devez mesurer sa longueur, sa largeur et sa hauteur. Ce sont des mesures directes. Ensuite, les mesures obtenues doivent être multipliées. Le volume résultant est déjà le résultat d'une mesure indirecte, car il est obtenu à la suite d'un calcul basé sur des mesures directes.

La mesure consiste à comparer deux ou plusieurs objets. Pour cela, les objets doivent être homogènes par rapport au critère de comparaison. Donc, si vous voulez mesurer le nombre d'étudiants qui sont venus au forum des jeunes, alors vous devez sélectionner tous ceux qui sont étudiants parmi le public (critère de comparaison) et les compter. Le reste de leurs qualités (sexe, âge, couleur de cheveux) peut être arbitraire. L'homogénéité des objets dans ce cas signifie qu'il ne faut pas tenir compte des serruriers sauf s'ils sont étudiants.

La technique de mesure est déterminée par les objets de mesure. Les objets de mesure du même type forment un ensemble. On peut parler, par exemple, d'un ensemble de longueurs ou d'un ensemble de masses.

Pour effectuer des mesures, il est nécessaire de disposer d'une mesure sur un ensemble d'objets mesurés et d'un appareil de mesure. Ainsi, une mesure pour un ensemble de longueurs est un mètre, et une règle ordinaire peut servir d'instrument. Sur un ensemble de masses, un kilogramme est pris comme mesure. La masse est mesurée le plus souvent à l'aide d'une balance.

L'ensemble des objets mesurés est divisé en continu et discret.

Un ensemble est dit continu si pour deux de ses éléments il est toujours possible d'en trouver un troisième entre eux. Tous les points de l'axe numérique forment un ensemble continu. Pour un ensemble discret, on peut toujours trouver deux éléments entre lesquels il n'y a pas de tiers. Par exemple, l'ensemble de tous les nombres naturels est discret.

Il existe une différence fondamentale entre les ensembles continus et discrets. Un ensemble discret contient sa mesure interne en lui-même. Ainsi, pour effectuer des mesures sur un ensemble discret, un simple calcul suffit. Par exemple, pour trouver la distance entre les points 1 et 10 de la série naturelle, il suffit de compter simplement le nombre de nombres de un à dix.

Les ensembles continus n'ont pas de mesure interne. Il faut l'amener de l'extérieur. Pour ce faire, utilisez l'étalon de mesure. Un exemple typique de mesure sur un ensemble continu est la mesure de longueur. Pour mesurer la longueur, une ligne droite standard d'un mètre de long est utilisée, avec laquelle la longueur mesurée est comparée.

Ici, il convient de noter que pendant presque tout le temps du développement de la technologie moderne, on a cherché à réduire la mesure de diverses grandeurs physiques à la mesure de la longueur. Ainsi, la mesure du temps se réduisait à la mesure de la distance parcourue par l'aiguille de l'horloge. La mesure de l'angle en technologie est le rapport de la longueur de l'arc soustraite par l'angle à la longueur du rayon de cet arc. Les valeurs mesurées par les dispositifs de pointage sont déterminées par la distance parcourue par le pointeur du dispositif. En étudiant la technique des mesures physiques et chimiques, on s'émerveille involontairement des ruses auxquelles les savants ont recouru pour réduire la mesure d'une quantité à la mesure d'une longueur.

Vers le milieu du XXe siècle, dans le cadre de la création de calculatrices électroniques, une technique de mesure fondamentalement nouvelle a été développée, appelée numérique. L'essence de la technique numérique réside dans le fait qu'une valeur mesurée continue est convertie en une valeur discrète à l'aide de dispositifs de seuil spécialement sélectionnés. Sur l'ensemble discret résultant, la mesure est réduite à un simple calcul effectué par un schéma de recalcul.

Un appareil de mesure numérique contient un convertisseur analogique-numérique (ADC), un dispositif logique de comptage et un indicateur. La base du convertisseur analogique-numérique est un numériseur, un comparateur et un additionneur. Un échantillonneur est un appareil capable de produire des signaux qui ont des niveaux fixes. La différence entre ces niveaux est toujours égale au plus petit d'entre eux et s'appelle l'intervalle d'échantillonnage. Le comparateur compare le signal mesuré avec le premier intervalle d'échantillonnage. Si le signal s'est avéré inférieur, alors zéro est affiché sur l'indicateur. Si le premier niveau d'échantillonnage est dépassé, alors le signal est comparé au second, et une unité est envoyée à l'additionneur. Ce processus se poursuit jusqu'à ce que le niveau du signal soit dépassé par le niveau d'échantillonnage. Dans ce cas, l'additionneur contiendra le nombre de niveaux de discrétisation inférieur ou égal à la valeur du signal mesuré. L'indicateur affiche la valeur de l'additionneur multipliée par la valeur de l'intervalle d'échantillonnage.

Ainsi, par exemple, une horloge numérique fonctionne. Un générateur spécial génère des impulsions avec une période strictement stabilisée. Le comptage du nombre de ces impulsions donne la valeur de l'intervalle de temps mesuré.

Des exemples d'une telle discrétisation sont faciles à trouver dans la vie de tous les jours. Ainsi, la distance parcourue le long de la route pouvait être déterminée par des poteaux télégraphiques. En Union soviétique, des poteaux télégraphiques étaient installés tous les 25 m. En comptant le nombre de poteaux et en le multipliant par 25, il était possible de déterminer la distance parcourue. L'erreur dans ce cas était de 25 m (intervalle d'échantillonnage).

Fiabilité et précision de mesure

Les principales caractéristiques de la mesure sont sa précision et sa fiabilité.. Pour les ensembles continus, la précision est déterminée par la précision de la fabrication de l'étalon et les éventuelles erreurs qui surviennent au cours du processus de mesure. Par exemple, lors de la mesure de la longueur, une règle d'échelle ordinaire peut servir de norme, ou peut-être d'outil spécial - un pied à coulisse. Les longueurs des différentes règles ne doivent pas différer de plus de 1 mm. Les étriers sont fabriqués de manière à ce que leurs longueurs ne puissent pas différer de plus de 0,1 mm. En conséquence, la précision de mesure de la barre d'échelle ne dépasse pas 1 mm et la précision du pied à coulisse est 10 fois supérieure.

L'erreur minimale possible qui se produit lors de la mesure avec cet appareil est sa classe de précision. Habituellement, la classe de précision de l'appareil est indiquée sur son échelle. En l'absence d'une telle indication, la valeur de division minimale de l'instrument est prise comme classe de précision. Erreurs de mesure déterminées par la classe de précision appareil de mesure sont dits instrumentaux.

Supposons que le résultat de la mesure soit calculé par une formule impliquant des mesures directes effectuées par divers instruments, c'est-à-dire que la mesure est indirecte. L'erreur associée à la précision limitée de ces instruments est appelée erreur de méthode. Une erreur de méthode est l'erreur minimale qui peut être tolérée dans une mesure utilisant une méthode donnée.

Lors de la mesure sur des ensembles discrets, en règle générale, il n'y a pas d'erreurs déterminées par la précision de l'appareil. La mesure sur de tels ensembles est réduite à un simple comptage. Par conséquent, la précision de la mesure est déterminée par la précision du comptage. Une mesure sur un ensemble discret peut, en principe, être rendue absolument précise. En pratique, des compteurs mécaniques ou électroniques (additionneurs) sont utilisés pour de telles mesures. La précision de ces additionneurs est déterminée par leur grille de bits. Le nombre de chiffres dans l'additionneur détermine le nombre maximum qu'il peut afficher. Si ce nombre est dépassé, l'additionneur "saute" par dessus zéro. Évidemment, dans ce cas, une valeur erronée sera renvoyée.

Pour les mesures numériques, la précision est déterminée par les erreurs de discrétisation et la grille de bits de l'additionneur utilisé dans cette mesure.

La fiabilité des résultats obtenus à la suite de la mesure montre à quel point on peut se fier aux résultats obtenus. La fiabilité et la précision sont interconnectées de telle sorte que lorsque la précision augmente, la fiabilité diminue et, inversement, lorsque la fiabilité augmente, la précision diminue. Par exemple, si on vous dit que la longueur du segment mesuré se situe entre zéro et l'infini, alors cette affirmation aura une fiabilité absolue. Dans ce cas, il n'est pas du tout nécessaire de parler de précision. Si une certaine valeur de longueur est nommée exactement, alors cette déclaration aura une fiabilité nulle. En raison d'erreurs de mesure, vous ne pouvez spécifier que l'intervalle dans lequel la valeur mesurée peut se situer.

En pratique, ils s'efforcent d'effectuer la mesure de manière à ce que la précision de la mesure et sa fiabilité satisfassent aux exigences du problème à résoudre. En mathématiques, une telle coordination de quantités qui se comportent de manière opposée est appelée optimisation. Les problèmes d'optimisation sont caractéristiques de l'économie. Par exemple, vous, étant allé au marché, essayez d'acheter le maximum de marchandises, tout en dépensant le moins d'argent.

En plus des erreurs associées à la classe de précision de l'appareil de mesure, d'autres erreurs peuvent être tolérées pendant le processus de mesure en raison des capacités limitées de l'instrument de mesure. Un exemple serait un bogue lié à la parallaxe. Cela se produit lors de la mesure avec une règle, si la ligne de visée est orientée à un angle par rapport à l'échelle de la règle.

En plus des erreurs instrumentales et aléatoires en métrologie, il est d'usage de distinguer les erreurs systématiques et les fautes grossières. Les erreurs systématiques se manifestent par le fait qu'un biais régulier est ajouté à la valeur mesurée. Souvent, ils sont associés à un changement d'origine. Afin de compenser ces erreurs, la plupart des instruments à aiguille sont équipés d'un correcteur de zéro spécial. Des ratés grossiers apparaissent à la suite de l'inattention du mesureur. En règle générale, les erreurs grossières se démarquent nettement de la plage des valeurs mesurées. La théorie générale de la métrologie permet de ne pas prendre en compte jusqu'à 30% des valeurs supposées grossières.

Méthodologie des sciences naturelles

Si nous comprenons les liens entre les processus des sciences naturelles, nous pouvons alors construire une image des sciences naturelles modernes. Les sciences naturelles sont passées par plusieurs étapes : la collecte d'informations en sciences naturelles, puis leur analyse. L'étape d'analyse fait déjà partie de la méthodologie. La science avec son développement se complique de plus en plus dans les méthodes.
    Problèmes méthodologiques généraux des sciences naturelles :
  • Divulgation de la connexion universelle des phénomènes naturels (vivants et inanimés), établissant l'essence de la vie, son origine, les fondements physiques et chimiques de l'hérédité.
  • Divulgation de l'essence des phénomènes à la fois dans les profondeurs de la matière (la zone des particules élémentaires) et vers les objets macro (proches de la Terre) et méga (plus éloignés).
  • La révélation des contradictions réelles des objets de la nature, telles que la dualité onde-particule (qui nous dirait, juristes, ce que c'est ?), particule et antiparticule, la relation des lois dynamiques et statistiques (les lois dynamiques reflètent une relation déterministe rigide entre les objets, ce relation est univoque et prévisible, si on applique une force à un certain point, alors on sait à quel moment et à quel endroit elle sera) ; modèles statistiques (parfois appelés lois probabilistes, utilisés pour décrire l'analyse dans les systèmes où il y a beaucoup de composants, où il est impossible de tout prédire avec précision), le hasard et la nécessité.
  • Révéler l'essence d'une transformation qualitative dans la nature (en sciences naturelles, ce n'est pas la transition elle-même qui est importante, mais les conditions de la transition dans la réalité et la nature du saut, c'est-à-dire le mécanisme), révéler la relation entre la matière et conscience. Au stade actuel, des approches complètement nouvelles sont nécessaires.
La méthodologie des sciences naturelles est axée sur la résolution du problème principal, le problème du développement contrôlé des connaissances scientifiques.

Une méthode est un ensemble de techniques et d'opérations pour le développement pratique et théorique de la réalité. La méthode dote le chercheur d'un système de principes, d'exigences, de règles, guidé par lequel il peut atteindre l'objectif visé. Posséder une méthode, c'est savoir comment, dans quel ordre effectuer certaines actions. La méthodologie est un domaine de connaissance qui étudie les méthodes, évalue leur efficacité, leur essence et leur applicabilité ; les méthodes de connaissances scientifiques sont généralement divisées en fonction de leur degré de généralité, c'est-à-dire étendue de l'applicabilité dans le processus de recherche scientifique :

  • Le premier groupe est celui des méthodes générales : dialectiques et métaphysiques, elles sont aussi appelées méthodes philosophiques générales.
  • Le deuxième groupe de méthodes comprend les méthodes scientifiques générales utilisées dans divers domaines scientifiques, c'est-à-dire ont un large éventail d'applications interdisciplinaires.
  • Le troisième groupe de méthodes : scientifiques privées, qui ne sont utilisées que dans le cadre de l'étude d'une science particulière ou même d'un phénomène particulier.
Cette structure en trois étapes est cohérente avec le concept de système. Ces méthodes, par ordre décroissant, guident le développement de la recherche du général au particulier, en utilisant une variété de méthodes. Les méthodes scientifiques privées sont généralement développées en relation avec une étude spécifique, généralement au moment d'une révolution scientifique.

Il existe deux niveaux de connaissance, il est empirique et théorique. Au niveau empirique, l'observation, l'expérimentation, la mesure sont utilisées. Sur le niveau théorique utiliser l'idéalisation et la formalisation. Et la méthode de modélisation peut être utilisée aux deux niveaux. Le modèle doit prendre en compte de nombreux facteurs et les optimiser. La modélisation est plus souvent utilisée au niveau théorique, quand il y a déjà beaucoup de faits, ils ont besoin d'être généralisés, qualifiés pour prédire. Méthodes mathématiques les simulations ont pénétré toutes les sciences.

    Éléments de la structure des connaissances scientifiques :
  1. Un élément factuel ou un fait fermement établi.
  2. Ce sont les résultats de la généralisation de la matière factuelle exprimée en concepts.
  3. Hypothèses scientifiques (hypothèses).
  4. Les normes de la connaissance scientifique sont un ensemble de lignes directrices spécifiques, conceptuelles et méthodologiques inhérentes à la science à chaque étape historique spécifique de son développement. La fonction principale est l'organisation et la régulation du processus de recherche. Identification des voies et moyens les plus efficaces pour résoudre le problème. Le changement d'étapes dans la science conduit à un changement dans les normes de la connaissance scientifique.
  5. Lois, principes, théories.
  6. Le style de pensée se caractérise par deux approches (principalement) de la considération des objets. La première est l'idée de systèmes dynamiques simples (c'est le premier type de pensée historique) et la seconde est l'idée de processus complexes, de systèmes auto-organisés.
Le but de la méthodologie est de créer de nouvelles voies et méthodes pour résoudre les problèmes de la science moderne.

Le problème du développement géré:

Avec la transition au stade actuel des sciences naturelles vers l'étude d'objets (systèmes) volumineux et complexes, les anciennes méthodes des sciences naturelles classiques se sont révélées inefficaces. Sinon, le monde des objets est apparu beaucoup plus diversifié et complexe que prévu, et les méthodes qui permettaient d'étudier certains des objets et pouvaient donner une image en statique ne peuvent plus être appliquées au stade actuel. Désormais, le monde est compris comme un système dynamique où les composants interagissent et acquièrent de nouvelles qualités.

Pour étudier un tel système, une approche systématique (étude systématique des objets) a été développée. Le fondateur de la théorie des systèmes Bertalanffy a développé le premier système, c'est un biologiste théoricien autrichien, et l'approche systémique a été utilisée pour la première fois en biologie. La tâche principale de la théorie générale des systèmes est de trouver un ensemble de lois qui expliquent le comportement, le fonctionnement et le développement de toute la classe d'objets dans son ensemble. Cela vise à créer une cohésion modèle théorique classes d'objets. Dans la science classique, on prenait un système, il avait des composants (ici, l'analogie de la mécanique, tout se résumait au mouvement à l'intérieur du système, tous les systèmes étaient considérés comme des systèmes fermés). Aujourd'hui on peut poser une telle question, s'il y a des systèmes isolés en principe, la réponse est négative. Les systèmes naturels dans la nature sont des systèmes thermodynamiques ouverts qui échangent avec environnement l'énergie, la matière et l'information. Caractéristiques d'une approche systématique :

  • Lors de l'étude d'un objet en tant que système, les composants de ce système ne sont pas considérés séparément, mais en tenant compte de leur place dans la structure de l'ensemble.
  • Même si les composants du système sont de la même classe, alors dans l'analyse du système, ils sont considérés comme dotés de propriétés, de paramètres et de fonctions différents, mais qui sont unis par un programme de contrôle commun.
  • Lors de l'étude des systèmes, il est nécessaire de prendre en compte les conditions externes de leur existence. Pour les systèmes hautement organisés (organiques), une description causale de leur comportement s'avère insuffisante. Cela signifie que la relation causale est très rigide (dans le sens sans ambiguïté), selon de telles idées, on croyait qu'il était possible de prédire l'ensemble du processus des événements, ce école classique. Le hasard et l'illogisme étaient tous deux considérés comme une sorte de malentendu. L'aléatoire n'a pas reçu suffisamment d'attention. Dans le même temps, lorsque les scientifiques ont commencé à considérer le comportement de systèmes complexes hautement organisés (biologiques, sociaux, techniques), il s'est avéré qu'il n'y avait pas de prédétermination stricte (unicité de la prévision). Il n'y a pas eu de crise scientifique à ce sujet, parce que. les découvertes dans le domaine des sciences naturelles ont révélé les schémas généraux de systèmes spécifiques, puis ces schémas sont devenus applicables à la science elle-même.
Le paradigme évolutif-synergique, la création d'une telle approche est devenue possible sur la base d'une nouvelle direction scientifique- Synergie. La synergétique est la science de l'auto-organisation de systèmes constitués de nombreux sous-systèmes de nature très différente. Cela souligne l'universalité de cette approche méthodologique, c'est-à-dire il est applicable dans divers domaines de la science, il est basé sur la compréhension que systèmes fonctionnels des systèmes dynamiques complexes d'auto-organisation mentent. Une autre définition de synergétique est coopération, coopération, interaction de divers éléments de systèmes.

Le mouvement du développement de la science, s'élevant à un nouveau niveau qualitatif a été associé à la révolution scientifique et technologique. Si nous parlons du développement de systèmes complexes, il y a toujours un point de bifurcation (tout système complexe dans son développement approche ce moment). À partir de ce point, le développement peut diminuer ou augmenter. En ce qui concerne les systèmes complexes au point de bifurcation, il faut appliquer peu de forces pour que le développement s'accélère.

DÉVELOPPEMENT
/ \
Ordre du Chaos

Si auparavant on croyait que le développement n'est que mouvement, et que le chaos était perçu comme un abîme terrible et ne comprenait pas qu'il existe une relation entre le chaos et l'ordre. À la suite du saut, le système acquiert de nouvelles propriétés en raison de l'ordre interne (organisation). Si nous parlons de solides, c'est l'ordre dans la structure (réseau cristallin), donc dans la nature, nous voyons aussi l'ordre. L'ordre se développe à travers le chaos. Le choix est également déterminé par les conditions d'influence externe sur le système. Deux voies sont possibles à partir du point de bifurcation : le passage à une organisation supérieure ou la destruction du système (considérer la dégradation). Dans les sciences, il y a des points critiques de développement, mais il y a une nuance qu'il y a plusieurs voies de choix à un moment donné. Le principe de base est que si nous comprenons comment un système complexe se développe, nous ne devons pas interférer avec lui, mais si nécessaire, orienter légèrement le système dans la bonne direction. Dispositions issues de l'approche synergique :

  • Il est impossible d'imposer les voies de leur développement à des systèmes organisés de manière complexe. Au contraire, il faut comprendre comment promouvoir ses propres tendances de développement. Par conséquent, il est nécessaire d'essayer de les amener à leurs propres voies de développement plus efficaces.
  • Cette approche permet de comprendre le rôle du chaos comme nouvelle organisation des systèmes.
  • Permet de comprendre et d'exploiter les moments d'instabilité du système. Le point de bifurcation est précisément le moment d'instabilité, où un petit effort génère de grandes conséquences. Dans les moments d'instabilité, des changements peuvent se produire à des niveaux supérieurs d'organisation de la matière.
  • La synergie montre que pour les systèmes complexes, il existe plusieurs voies alternatives de développement. Cette disposition nous permet de conclure que, en principe, il existe de telles voies de développement de l'homme et de la nature qui pourraient convenir à l'homme et non nuire à la nature. Pour trouver de telles voies, nous devons comprendre les schémas de développement des systèmes complexes.
  • Synergetics fournit des connaissances sur la façon d'exploiter des systèmes complexes.
  • La synergie permet de révéler les modèles de processus rapides et non linéaires qui sous-tendent les transformations qualitatives du système.
Quelles lois peut-on utiliser pour décrire des régularités objectives : en utilisant des lois dynamiques ou des lois statistiques ? C'est là que se pose le problème de la corrélation. En d'autres termes, nous parlons : premièrement, de l'applicabilité des lois, et deuxièmement, de la corrélation des lois, qui sont les principales et qui sont spéciales. Dans le cadre de ce problème (corrélation des lois), deux orientations philosophiques se sont dégagées :
  1. Le déterminisme est la doctrine de la conditionnalité matérielle causale des phénomènes naturels, sociaux et mentaux.
  2. L'indéterminisme est une doctrine qui nie toute causalité objective des phénomènes.
Les théories physiques se sont développées dans ce sens.

lois dynamiques. La première et telle théorie, qui est en corrélation avec le déterminisme, est dynamique. Une loi dynamique est une loi physique qui traduit une régularité objective sous la forme d'une liaison non ambiguë de certaines grandeurs physiques exprimées quantitativement. Historiquement, la mécanique dynamique de Newton était la première et la plus simple. Laplace appartient à l'absolutisation des lois dynamiques. Selon son principe, tous les phénomènes du monde sont déterminés, c'est-à-dire prédéterminé par nécessité. Et les phénomènes et événements aléatoires, comme catégorie d'objectif, aucun espace n'est alloué. A un certain stade du développement de telles lois, la question s'est posée que les lois dynamiques ne sont pas les seules lois, qu'elles ne sont pas universelles. Historiquement, cela est associé à l'étude de systèmes plus complexes, ainsi qu'au désir des scientifiques de pénétrer dans les profondeurs de la matière.

lois statistiques. A côté des lois dynamiques, il existe des lois d'une autre nature, dont les prédictions ne sont pas certaines, mais probabilistes. Mais le déterminisme ne quitte pas la science, et l'approche susmentionnée est appelée déterminisme probabiliste - prédiction probabiliste de modèles objectifs basée sur des lois probabilistes. De telles lois sont dites statistiques. Cela signifie qu'il est possible de prédire un événement non pas sans ambiguïté, mais avec un certain degré de probabilité. Ici, ils fonctionnent avec des valeurs médianes et des valeurs moyennes. Ces lois sont dites probabilistes car les conclusions qui en découlent ne découlent pas logiquement des informations disponibles et ne sont donc pas univoques. Car l'information elle-même est de nature statistique, ces lois sont dites statistiques. La logique de révéler ces lois appartient à Maxwell. La probabilité a un caractère objectif, ce qui signifie que dans le contexte de nombreux événements, un certain schéma est trouvé, exprimé par un certain nombre.


Méthodes de la science - un ensemble de techniques et d'opérations de connaissance pratique et théorique de la réalité.

Les méthodes de recherche optimisent l'activité humaine, la dotent des moyens les plus rationnels d'organiser les activités. A. P. Sadokhin, en plus de mettre en évidence les niveaux de connaissances dans la classification des méthodes scientifiques, prend en compte le critère d'applicabilité de la méthode et identifie les méthodes générales, spéciales et particulières de connaissances scientifiques. Les méthodes sélectionnées sont souvent combinées et combinées dans le processus de recherche.

Les méthodes générales de cognition concernent toutes les disciplines et permettent de relier toutes les étapes du processus cognitif. Ces méthodes sont utilisées dans n'importe quel domaine de recherche et vous permettent d'identifier les relations et les caractéristiques des objets à l'étude. Dans l'histoire des sciences, les chercheurs qualifient ces méthodes de méthodes métaphysiques et dialectiques. Les méthodes privées de connaissance scientifique sont des méthodes qui ne sont utilisées que dans une branche particulière de la science. Diverses méthodes des sciences naturelles (physique, chimie, biologie, écologie, etc.) sont particulières par rapport à la méthode dialectique générale de la cognition. Parfois, les méthodes privées peuvent être utilisées en dehors des branches des sciences naturelles dont elles sont issues.

Par exemple, physique et méthodes chimiques utilisé en astronomie, biologie, écologie. Souvent, les chercheurs appliquent un ensemble de méthodes particulières interdépendantes à l'étude d'un sujet. Par exemple, l'écologie utilise simultanément les méthodes de la physique, des mathématiques, de la chimie et de la biologie. Des méthodes particulières de cognition sont associées à des méthodes spéciales. Des méthodes spéciales examinent certaines caractéristiques de l'objet à l'étude. Ils peuvent se manifester aux niveaux empirique et théorique de la cognition et être universels.

Parmi les méthodes empiriques particulières de la cognition, on distingue l'observation, la mesure et l'expérimentation.

L'observation est un processus délibéré de perception d'objets de la réalité, un reflet sensuel d'objets et de phénomènes, au cours duquel une personne reçoit informations primaires sur le monde qui l'entoure. Par conséquent, l'étude commence le plus souvent par l'observation, et ce n'est qu'ensuite que les chercheurs passent à d'autres méthodes. Les observations ne sont associées à aucune théorie, mais le but de l'observation est toujours associé à une situation problématique.

L'observation suppose l'existence d'un certain plan de recherche, hypothèse sujette à analyse et à vérification. Les observations sont utilisées là où l'expérience directe ne peut pas être faite (en volcanologie, cosmologie). Les résultats de l'observation sont consignés dans une description indiquant les caractéristiques et les propriétés de l'objet étudié qui font l'objet de l'étude. La description doit être aussi complète, précise et objective que possible. Ce sont les descriptions des résultats d'observation qui constituent la base empirique de la science; sur leur base, des généralisations empiriques, une systématisation et une classification sont créées.

La mesure est la détermination des valeurs quantitatives (caractéristiques) des côtés étudiés ou des propriétés d'un objet à l'aide de dispositifs techniques spéciaux. Les unités de mesure avec lesquelles les données obtenues sont comparées jouent un rôle important dans l'étude.

Expérience - une méthode de cognition à l'aide de laquelle les phénomènes de la réalité sont étudiés dans des conditions contrôlées et contrôlées. Elle diffère de l'observation par intervention sur l'objet étudié, c'est-à-dire par activité en relation avec lui. Lors de la conduite d'une expérience, le chercheur ne se limite pas à l'observation passive des phénomènes, mais interfère consciemment dans le cours naturel de leur évolution en influençant directement le processus étudié ou en modifiant les conditions dans lesquelles ce processus se déroule.

Le développement des sciences naturelles pose le problème de la rigueur de l'observation et de l'expérimentation. Le fait est qu'ils ont besoin d'outils et d'appareils spéciaux, qui sont récemment devenus si complexes qu'ils commencent eux-mêmes à influencer l'objet d'observation et d'expérimentation, ce qui, selon les conditions, ne devrait pas l'être. Cela s'applique principalement à la recherche dans le domaine de la physique des micromondes (mécanique quantique, électrodynamique quantique, etc.).

L'analogie est une méthode de cognition dans laquelle il y a un transfert des connaissances obtenues lors de la considération d'un objet à un autre, moins étudié et en cours d'étude. La méthode d'analogie est basée sur la similitude des objets dans un certain nombre de signes, ce qui vous permet d'obtenir des connaissances assez fiables sur le sujet étudié.

L'utilisation de la méthode par analogie dans les connaissances scientifiques requiert une certaine prudence. Ici, il est extrêmement important d'identifier clairement les conditions dans lesquelles il fonctionne le plus efficacement. Cependant, dans les cas où il est possible de développer un système de règles clairement formulées pour transférer les connaissances d'un modèle à un prototype, les résultats et les conclusions par la méthode d'analogie deviennent probants.

L'analyse est une méthode de connaissance scientifique, qui est basée sur la procédure de démembrement mental ou réel d'un objet en ses parties constituantes. Le démembrement vise le passage de l'étude du tout à l'étude de ses parties et s'effectue en faisant abstraction de la connexion des parties entre elles.

La synthèse est une méthode de connaissance scientifique, qui est basée sur la procédure consistant à combiner divers éléments d'un objet en un seul tout, un système, sans lequel une connaissance véritablement scientifique de ce sujet est impossible. La synthèse n'agit pas comme une méthode de construction du tout, mais comme une méthode de représentation du tout sous la forme d'une unité de connaissance obtenue par analyse. En synthèse, non seulement une union se produit, mais une généralisation des caractéristiques analytiquement distinguées et étudiées d'un objet. Les dispositions obtenues à la suite de la synthèse sont incluses dans la théorie de l'objet, qui, s'enrichissant et s'affinant, détermine les voies d'une nouvelle recherche scientifique.

L'induction est une méthode de connaissance scientifique, qui est la formulation d'une conclusion logique en résumant les données d'observation et d'expérience.
La déduction est une méthode de connaissance scientifique qui consiste à passer de certaines prémisses générales à des résultats-conséquences particuliers.
La solution de tout problème scientifique comprend l'avancement de diverses conjectures, hypothèses et le plus souvent d'hypothèses plus ou moins étayées, à l'aide desquelles le chercheur tente d'expliquer des faits qui ne rentrent pas dans les anciennes théories. Les hypothèses surgissent dans des situations incertaines, dont l'explication devient pertinente pour la science. De plus, au niveau des connaissances empiriques (ainsi qu'au niveau de leur explication), il y a souvent des jugements contradictoires. Pour résoudre ces problèmes, des hypothèses sont nécessaires.

Une hypothèse est une hypothèse, une conjecture ou une prédiction avancée pour éliminer une situation d'incertitude dans la recherche scientifique. Par conséquent, une hypothèse n'est pas une connaissance fiable, mais une connaissance probable, dont la vérité ou la fausseté n'a pas encore été établie.
Toute hypothèse doit nécessairement être étayée soit par la connaissance acquise d'une science donnée, soit par des faits nouveaux (la connaissance incertaine n'est pas utilisée pour étayer une hypothèse). Elle doit avoir la propriété d'expliquer tous les faits qui se rapportent à un domaine de connaissance donné, de les systématiser, ainsi que les faits extérieurs à ce domaine, de prédire l'émergence de faits nouveaux (par exemple, l'hypothèse quantique de M. Planck, mise en avant au début du XXe siècle, a conduit à la création d'une mécanique quantique, d'une électrodynamique quantique et d'autres théories). Dans ce cas, l'hypothèse ne doit pas contredire les faits déjà existants. L'hypothèse doit être soit confirmée, soit infirmée.

c) les méthodes privées sont des méthodes qui fonctionnent soit uniquement dans une branche distincte des sciences naturelles, soit en dehors de la branche des sciences naturelles d'où elles proviennent. C'est la méthode de baguage des oiseaux utilisée en zoologie. Et les méthodes de la physique utilisées dans d'autres branches des sciences naturelles ont conduit à la création de l'astrophysique, de la géophysique, de la physique des cristaux, etc. Souvent, un complexe de méthodes particulières interdépendantes est appliqué à l'étude d'un sujet. Par exemple, la biologie moléculaire utilise simultanément les méthodes de la physique, des mathématiques, de la chimie et de la cybernétique.

La modélisation est une méthode de connaissance scientifique basée sur l'étude d'objets réels à travers l'étude de modèles de ces objets, c'est-à-dire en étudiant des objets de substitution d'origine naturelle ou artificielle plus accessibles à la recherche et (ou) à l'intervention et ayant les propriétés d'objets réels.

Les propriétés de n'importe quel modèle ne doivent pas, et en effet ne peuvent pas, correspondre exactement et complètement à absolument toutes les propriétés de l'objet réel correspondant dans toutes les situations. Dans les modèles mathématiques, tout paramètre supplémentaire peut conduire à une complication importante de la solution du système d'équations correspondant, à la nécessité d'appliquer des hypothèses supplémentaires, d'écarter les petits termes, etc., en simulation numérique, le temps de traitement du problème par le ordinateur augmente de manière disproportionnée, et l'erreur de calcul augmente.

La variété des méthodes de connaissance scientifique crée des difficultés dans leur application et la compréhension de leur rôle. Ces problèmes sont résolus par un domaine de connaissances particulier - la méthodologie. La tâche principale de la méthodologie est d'étudier l'origine, l'essence, l'efficacité, le développement des méthodes de cognition.



DÉVELOPPEMENT DES CONNAISSANCES SCIENTIFIQUES

Le processus de la connaissance scientifique dans sa forme la plus générale est la solution de divers types de problèmes qui se posent au cours d'activités pratiques. La solution des problèmes qui se posent dans ce cas est obtenue en utilisant des techniques (méthodes) spéciales qui permettent de passer de ce qui est déjà connu à de nouvelles connaissances. Un tel système de techniques est généralement appelé une méthode. La méthode est un ensemble de techniques et d'opérations de connaissance pratique et théorique de la réalité.

MÉTHODES DE CONNAISSANCE SCIENTIFIQUE

Chaque science utilise des méthodes différentes, qui dépendent de la nature des problèmes qu'elle résout. Cependant, l'originalité des méthodes scientifiques réside dans le fait qu'elles sont relativement indépendantes du type de problèmes, mais elles sont dépendantes du niveau et de la profondeur de la recherche scientifique, ce qui se manifeste principalement dans leur rôle dans les processus de recherche. En d'autres termes, dans chaque processus de recherche, la combinaison des méthodes et leur structure changent. Grâce à cela, des formes spéciales (côtés) de connaissances scientifiques apparaissent, dont les plus importantes sont empiriques, théoriques et techniques de production.

Le versant empirique implique la nécessité de collecter des faits et des informations (établir des faits, les enregistrer, les accumuler), ainsi que de les décrire (énoncé des faits et leur systématisation primaire).

Le côté théorique est associé à l'explication, la généralisation, la création de nouvelles théories, les hypothèses, la découverte de nouvelles lois, la prédiction de nouveaux faits dans le cadre de ces théories. Avec leur aide, une image scientifique du monde est développée et ainsi la fonction idéologique de la science est réalisée.

Le côté productif et technique se manifeste comme la force productive directe de la société, ouvrant la voie au développement de la technologie, mais cela dépasse déjà le cadre des méthodes scientifiques propres, car il est de nature appliquée.

Les moyens et les méthodes de la cognition correspondent à la structure de la science évoquée ci-dessus, dont les éléments sont en même temps des étapes du développement des connaissances scientifiques. Ainsi, la recherche empirique et expérimentale présuppose tout un système d'équipements expérimentaux et d'observation (dispositifs, y compris les ordinateurs, les appareils de mesure et les instruments), à l'aide desquels de nouveaux faits sont établis. La recherche théorique implique le travail de scientifiques visant à expliquer des faits (vraisemblablement - à l'aide d'hypothèses, testées et prouvées - à l'aide de théories et de lois scientifiques), à la formation de concepts qui généralisent les données expérimentales. Les deux effectuent ensemble un test de ce qui est connu dans la pratique.

L'unité de ses aspects empiriques et théoriques sous-tend les méthodes des sciences naturelles. Ils sont liés et se conditionnent mutuellement. Leur rupture, ou le développement prédominant de l'un au détriment de l'autre, ferme la voie à la connaissance correcte de la nature - la théorie devient vaine, l'expérience -

Les méthodes des sciences naturelles peuvent être divisées en groupes suivants :,

1. Méthodes générales concernant tout sujet, toute science. Ce sont diverses formes d'une méthode qui permet de relier tous les aspects du processus de cognition, toutes ses étapes, par exemple la méthode de remontée de l'abstrait au concret, l'unité du logique et de l'historique. Ce sont plutôt des méthodes philosophiques générales de cognition.

2. Les méthodes spéciales ne concernent qu'un aspect du sujet étudié ou une certaine méthode de recherche :

analyse, synthèse, induction, déduction. Les méthodes spéciales comprennent également l'observation, la mesure, la comparaison et l'expérimentation.

En sciences naturelles, les méthodes scientifiques spéciales sont de la plus haute importance, par conséquent, dans le cadre de notre cours, il est nécessaire d'examiner leur essence plus en détail.

L'observation est un processus strict et délibéré de perception d'objets de la réalité qui ne doit pas être modifié. Historiquement, la méthode d'observation se développe comme partie intégrante de l'opération de travail, qui comprend l'établissement de la conformité du produit du travail avec son modèle prévu.

L'observation comme méthode de connaissance de la réalité est utilisée soit lorsqu'une expérience est impossible ou très difficile (en astronomie, volcanologie, hydrologie), soit lorsqu'il s'agit d'étudier le fonctionnement ou le comportement naturel d'un objet (en éthologie, psychologie sociale, etc.). .). L'observation comme méthode suppose la présence d'un programme de recherche, formé sur la base de croyances passées, de faits établis, de concepts acceptés. La mesure et la comparaison sont des cas particuliers de la méthode d'observation.

Expérience - une méthode de cognition à l'aide de laquelle les phénomènes de la réalité sont étudiés dans des conditions contrôlées et contrôlées. Elle diffère de l'observation par intervention sur l'objet étudié, c'est-à-dire par activité en relation avec lui. Lors de la conduite d'une expérience, le chercheur ne se limite pas à l'observation passive des phénomènes, mais interfère consciemment dans le cours naturel de leur évolution en influençant directement le processus étudié ou en modifiant les conditions dans lesquelles ce processus se déroule.

La spécificité de l'expérience réside également dans le fait que dans des conditions normales, les processus dans la nature sont extrêmement complexes et complexes, ne se prêtant pas à un contrôle et à une gestion complets. Par conséquent, la tâche se pose d'organiser une telle étude dans laquelle il serait possible de retracer le déroulement du processus sous une forme «pure». À ces fins, dans l'expérience, les facteurs essentiels sont séparés des facteurs non essentiels, ce qui simplifie grandement la situation. De ce fait, une telle simplification contribue à une meilleure compréhension des phénomènes et permet de maîtriser les quelques facteurs et grandeurs indispensables à ce processus.

Le développement des sciences naturelles pose le problème de la rigueur de l'observation et de l'expérimentation. Le fait est qu'ils ont besoin d'outils et d'appareils spéciaux, qui sont récemment devenus si complexes qu'ils commencent eux-mêmes à influencer l'objet d'observation et d'expérimentation, ce qui, selon les conditions, ne devrait pas l'être. Cela s'applique principalement à la recherche dans le domaine de la physique des micromondes (mécanique quantique, électrodynamique quantique, etc.).

L'analogie est une méthode de cognition dans laquelle il y a un transfert des connaissances obtenues lors de la considération d'un objet à un autre, moins étudié et en cours d'étude. La méthode d'analogie est basée sur la similitude des objets dans un certain nombre de signes, ce qui vous permet d'obtenir des connaissances assez fiables sur le sujet étudié.

L'utilisation de la méthode par analogie dans les connaissances scientifiques requiert une certaine prudence. Ici, il est extrêmement important d'identifier clairement les conditions dans lesquelles il fonctionne le plus efficacement. Cependant, dans les cas où il est possible de développer un système de règles clairement formulées pour transférer les connaissances d'un modèle à un prototype, les résultats et les conclusions par la méthode d'analogie deviennent probants.

La modélisation est une méthode de connaissance scientifique basée sur l'étude de n'importe quels objets à travers leurs modèles. L'apparition de cette méthode est due au fait que parfois l'objet ou le phénomène étudié est inaccessible à l'intervention directe du sujet connaissant, ou qu'une telle intervention est inappropriée pour un certain nombre de raisons. La modélisation implique le transfert d'activités de recherche vers un autre objet, agissant comme substitut de l'objet ou du phénomène qui nous intéresse. L'objet de substitution s'appelle le modèle et l'objet d'étude s'appelle l'original ou le prototype. Dans ce cas, le modèle agit comme un tel substitut du prototype, ce qui vous permet d'acquérir certaines connaissances sur ce dernier.

Ainsi, l'essence de la modélisation en tant que méthode de cognition est de remplacer l'objet d'étude par un modèle, et des objets d'origine naturelle et artificielle peuvent être utilisés comme modèle. La possibilité de modéliser repose sur le fait que le modèle reflète à certains égards certains aspects du prototype. Lors de la modélisation, il est très important d'avoir une théorie ou une hypothèse appropriée qui indique strictement les limites et les limites des simplifications autorisées.

La science moderne connaît plusieurs types de modélisation :

1) la modélisation du sujet, dans laquelle l'étude est réalisée sur un modèle reproduisant certaines caractéristiques géométriques, physiques, dynamiques ou fonctionnelles de l'objet d'origine ;

2) la modélisation des signes, dans laquelle les schémas, les dessins, les formules servent de modèles. La vue la plus importante une telle modélisation est une modélisation mathématique produite au moyen des mathématiques et de la logique ;

3) la modélisation mentale, dans laquelle des représentations mentalement visuelles de ces signes et des opérations avec eux sont utilisées à la place de modèles symboliques.

Récemment, une expérience modèle utilisant des ordinateurs, qui sont à la fois un moyen et un objet de recherche expérimentale, remplaçant l'original, s'est généralisée. Dans ce cas, l'algorithme (programme) du fonctionnement de l'objet sert de modèle.

L'analyse est une méthode de connaissance scientifique, qui est basée sur la procédure de démembrement mental ou réel d'un objet en ses parties constituantes. Le démembrement vise le passage de l'étude du tout à l'étude de ses parties et s'effectue en faisant abstraction de la connexion des parties entre elles.

L'analyse fait partie intégrante de toute recherche scientifique, qui en est généralement la première étape, lorsque le chercheur passe d'une description sans partage de l'objet étudié à la révélation de sa structure, de sa composition, ainsi que de ses propriétés et caractéristiques.

La synthèse est une méthode de connaissance scientifique, qui est basée sur la procédure consistant à combiner divers éléments d'un objet en un seul tout, un système, sans lequel une connaissance véritablement scientifique de ce sujet est impossible. La synthèse n'agit pas comme une méthode de construction du tout, mais comme une méthode de représentation du tout sous la forme d'une unité de connaissance obtenue par analyse. En synthèse, non seulement une union se produit, mais une généralisation des caractéristiques analytiquement distinguées et étudiées d'un objet. Les dispositions obtenues à la suite de la synthèse sont incluses dans la théorie de l'objet, qui, s'enrichissant et s'affinant, détermine les voies d'une nouvelle recherche scientifique.

L'induction est une méthode de connaissance scientifique, qui est la formulation d'une conclusion logique en résumant les données d'observation et d'expérience.

La base immédiate du raisonnement inductif est la répétition de caractéristiques dans un certain nombre d'objets d'une certaine classe. Une conclusion par induction est une conclusion sur les propriétés générales de tous les objets appartenant à une classe donnée, basée sur l'observation d'un ensemble assez large de faits uniques. Habituellement, les généralisations inductives sont considérées comme des vérités empiriques ou des lois empiriques.

Distinguez l'induction complète de l'induction incomplète. L'induction complète construit une conclusion générale basée sur l'étude de tous les objets ou phénomènes d'une classe donnée. À la suite d'une induction complète, la conclusion qui en résulte a le caractère d'une conclusion fiable. L'essence de l'induction incomplète est qu'elle construit une conclusion générale basée sur l'observation d'un nombre limité de faits, si parmi ces derniers il n'y en a pas qui contredisent le raisonnement inductif. Il est donc naturel que la vérité ainsi obtenue soit incomplète, on obtient ici une connaissance probabiliste qui demande une confirmation supplémentaire.

La déduction est une méthode de connaissance scientifique qui consiste à passer de certaines prémisses générales à des résultats-conséquences particuliers.

L'inférence par déduction est construite selon le schéma suivant ;

tous les objets de la classe "A" ont la propriété "B" ; l'article "a" appartient à la classe "A" ; donc "a" a la propriété "B". En général, la déduction en tant que méthode de connaissance procède de lois et de principes déjà connus. Par conséquent, la méthode de déduction ne permet pas || acquérir de nouvelles connaissances significatives. La déduction est - ^ n'est qu'un moyen de déploiement logique du système sur - | hypothèses basées sur les connaissances initiales, un moyen d'identifier le contenu spécifique des prémisses généralement acceptées.

La solution de tout problème scientifique comprend l'avancement de diverses conjectures, hypothèses et le plus souvent d'hypothèses plus ou moins étayées, à l'aide desquelles le chercheur tente d'expliquer des faits qui ne rentrent pas dans les anciennes théories. Les hypothèses surgissent dans des situations incertaines, dont l'explication devient pertinente pour la science. De plus, au niveau des connaissances empiriques (ainsi qu'au niveau de leur explication), il y a souvent des jugements contradictoires. Pour résoudre ces problèmes, des hypothèses sont nécessaires.

Une hypothèse est une hypothèse, une conjecture ou une prédiction avancée pour éliminer une situation d'incertitude dans la recherche scientifique. Par conséquent, une hypothèse n'est pas une connaissance fiable, mais une connaissance probable, dont la vérité ou la fausseté n'a pas encore été établie.

Toute hypothèse doit nécessairement être étayée soit par la connaissance acquise d'une science donnée, soit par des faits nouveaux (la connaissance incertaine n'est pas utilisée pour étayer une hypothèse). Elle doit avoir la propriété d'expliquer tous les faits qui se rapportent à un domaine de connaissance donné, de les systématiser, ainsi que les faits extérieurs à ce domaine, de prédire l'émergence de faits nouveaux (par exemple, l'hypothèse quantique de M. Planck, mise en avant au début du XXe siècle, a conduit à la création d'une mécanique quantique, d'une électrodynamique quantique et d'autres théories). Dans ce cas, l'hypothèse ne doit pas contredire les faits déjà existants.

L'hypothèse doit être soit confirmée, soit infirmée. Pour ce faire, il doit avoir les propriétés de falsification et de vérifiabilité. La falsification est une procédure qui établit la fausseté d'une hypothèse à la suite d'une vérification expérimentale ou théorique. L'exigence de falsifiabilité des hypothèses signifie que le sujet de la science ne peut être que la connaissance fondamentalement réfutée. La connaissance irréfutable (par exemple, la vérité de la religion) n'a rien à voir avec la science. Dans le même temps, les résultats de l'expérience ne peuvent à eux seuls réfuter l'hypothèse. Cela nécessite une hypothèse ou une théorie alternative qui assure le développement ultérieur des connaissances. Sinon, la première hypothèse n'est pas rejetée. La vérification est le processus d'établissement de la vérité d'une hypothèse ou d'une théorie à la suite de leur vérification empirique. La vérifiabilité indirecte est également possible, basée sur des conclusions logiques à partir de faits directement vérifiés.

3. Les méthodes privées sont des méthodes spéciales qui fonctionnent soit uniquement dans une branche particulière de la science, soit en dehors de la branche dont elles sont issues. C'est la méthode de baguage des oiseaux utilisée en zoologie. Et les méthodes de la physique utilisées dans d'autres branches des sciences naturelles ont conduit à la création de l'astrophysique, de la géophysique, de la physique des cristaux, etc. Souvent, un complexe de méthodes particulières interdépendantes est appliqué à l'étude d'un sujet. Par exemple, la biologie moléculaire utilise simultanément les méthodes de la physique, des mathématiques, de la chimie et de la cybernétique.

Notre compréhension de l'essence de la science ne sera pas complète si nous ne considérons pas la question des causes qui lui ont donné naissance. Ici, nous rencontrons immédiatement une discussion sur le moment de l'émergence de la science.

Quand et pourquoi la science a-t-elle émergé ? Il existe deux points de vue extrêmes sur cette question. Les partisans de l'un déclarent que toute connaissance abstraite généralisée est scientifique et attribuent l'émergence de la science à cette ancienne antiquité, lorsque l'homme a commencé à fabriquer les premiers outils de travail. L'autre extrême est l'attribution de la genèse (origine) de la science à ce stade relativement tardif de l'histoire (XV-XVII siècles), lorsque les sciences naturelles expérimentales apparaissent.

La science moderne des sciences ne donne pas encore de réponse univoque à cette question, puisqu'elle considère la science elle-même sous plusieurs aspects. Selon les principaux points de vue, la science est un ensemble de connaissances et d'activités pour la production de ces connaissances ; forme de conscience sociale; institution sociale;

force productive directe de la société; système de formation professionnelle (académique) et de reproduction du personnel. Nous avons déjà nommé et parlé en détail de ces aspects de la science. Selon l'aspect que nous prenons en compte, nous obtiendrons points différents développement de référence de la science:

La science en tant que système de formation du personnel existe depuis le milieu du XIXe siècle ;

En tant que force productive directe - à partir de la seconde moitié du XXe siècle ;

En tant qu'institution sociale - à l'époque moderne; /Y^>

En tant que forme de conscience sociale - en La Grèce ancienne;

En tant que connaissances et activités pour la production de ces connaissances - depuis le début de la culture humaine.

Différentes sciences spécifiques ont également des heures de naissance différentes. Ainsi, l'antiquité a donné au monde les mathématiques, les temps modernes - les sciences naturelles modernes, au XIXe siècle. la société de la connaissance émerge.

Afin de comprendre ce processus, nous devons nous tourner vers l'histoire.

La science est un phénomène social complexe aux multiples facettes : la science ne peut naître ou se développer en dehors de la société. Mais la science apparaît lorsque des conditions objectives particulières sont créées pour cela : une demande sociale plus ou moins claire de connaissance objective ; la possibilité sociale de distinguer un groupe spécial de personnes dont la tâche principale est de répondre à cette demande ; le début de la division du travail au sein de ce groupe ; l'accumulation de connaissances, de compétences, de techniques cognitives, de modes d'expression symbolique et de transmission d'informations (la présence de l'écriture), qui préparent le processus révolutionnaire d'émergence et de diffusion d'un nouveau type de connaissances - des vérités scientifiques objectives et universellement valables.

L'ensemble de ces conditions, ainsi que l'émergence dans la culture de la société humaine d'une sphère indépendante répondant aux critères de caractère scientifique, prend forme dans la Grèce antique aux VIIe-VIe siècles. AVANT JC.

Pour le prouver, il est nécessaire de corréler les critères de caractère scientifique avec le cours de la réalité processus historique et savoir à partir de quel moment commence leur correspondance. Rappelons les critères de caractère scientifique : la science n'est pas seulement une collection de connaissances, mais aussi une activité pour obtenir de nouvelles connaissances, ce qui implique l'existence d'un groupe spécial de personnes spécialisées dans ce domaine, d'organisations compétentes coordonnant la recherche, ainsi que l'existence de matériaux nécessaires, technologies, moyens de fixation de l'information (1); théorie - compréhension de la vérité pour la vérité elle-même (2); rationalité (3), cohérence (4).

Avant de parler du grand bouleversement de la vie spirituelle de la société - l'émergence de la science qui a eu lieu dans la Grèce antique, il est nécessaire d'étudier la situation dans l'Orient ancien, traditionnellement considéré comme le centre historique de la naissance de la civilisation et de la culture.


Certaines des positions / dans le système des fondements propres de la physique classique n'étaient considérées comme vraies qu'en raison de ces prémisses épistémologiques admises comme naturelles dans la physique des XVIIe - XVIIIe siècles en relation avec les planètes, lors de la description de leur rotation autour du Soleil, le concept de corps absolument rigide et indéformable a été largement utilisé, ce qui s'est avéré adapté à la résolution de certains problèmes.Dans la physique newtonienne, l'espace et le temps étaient considérés comme des entités absolues, indépendantes de la matière, comme un fond extérieur sur lequel tout processus Pour comprendre la structure de la matière, l'hypothèse atomistique a été largement utilisée, mais les atomes étaient considérés comme des particules indivisibles, sans structure et dotées d'une masse, semblables à des points matériels.

Bien que toutes ces hypothèses aient été le résultat de fortes idéalisations de la réalité, elles ont permis de faire abstraction de nombreuses autres propriétés des objets qui n'étaient pas essentielles pour résoudre un certain type de problèmes, et étaient donc pleinement justifiées en physique à ce stade de son développement. Mais lorsque ces idéalisations ont dépassé le cadre de leur application possible, cela a conduit à une contradiction dans l'image existante du monde, qui ne correspondait pas à de nombreux faits et lois de l'optique ondulatoire, des théories des phénomènes électromagnétiques, de la thermodynamique, de la chimie, de la biologie, etc.

Par conséquent, il est très important de comprendre qu'il est impossible d'absolutiser les prémisses épistémologiques. Dans le développement habituel et harmonieux de la science, leur absolutisation n'est pas très perceptible et n'interfère pas trop.Mais lorsque vient le stade de la révolution de la science, de nouvelles théories apparaissent qui nécessitent des prémisses épistémologiques complètement nouvelles, souvent incompatibles avec les prémisses épistémologiques des anciens. Ainsi, les principes ci-dessus de la mécanique classique étaient le résultat de l'acceptation de présupposés épistémologiques extrêmement forts qui semblaient évidents à ce niveau de développement de la science. Tous ces principes étaient et restent vrais, bien sûr, sous des prérequis épistémologiques bien précis, sous certaines conditions de vérification de leur véracité. En d'autres termes, sous certaines prémisses épistémologiques et un certain niveau de pratique, ces principes étaient, sont et seront toujours vrais. Cela suggère aussi qu'il n'y a pas de vérité absolue, la vérité dépendant toujours de prérequis épistémologiques, qui ne sont pas donnés une fois pour toutes et inchangés.

A titre d'exemple, prenons la physique moderne, pour laquelle de nouveaux principes sont vrais, qui sont fondamentalement différents des classiques : le principe de la vitesse finie de propagation des interactions physiques, qui ne dépasse pas la vitesse de la lumière dans le vide, le principe de la relation des propriétés physiques les plus générales (espace, temps, gravité, etc.), les principes de relativité des fondements logiques des théories Ces principes reposent sur des prémisses épistémologiques qualitativement différentes des principes anciens, ils sont logiquement incompatibles Dans ce cas, on ne peut prétendre que si les nouveaux principes sont vrais, alors les anciens sont faux, et inversement, et les nouveaux principes en même temps, mais la portée de ces principes sera différente. Une telle situation se produit en réalité dans les sciences naturelles, grâce auxquelles les anciennes théories (par exemple, la mécanique classique) et les nouvelles (par exemple, la mécanique relativiste, la mécanique quantique, etc.) sont vraies.


LA DERNIÈRE RÉVOLUTION SCIENTIFIQUE

L'impulsion, le début de la dernière révolution des sciences naturelles, qui a conduit à l'émergence de la science moderne, a été une série de découvertes étonnantes en physique qui ont détruit toute la cosmologie cartésienne-newtonienne. Il s'agit notamment de la découverte des ondes électromagnétiques par G. Hertz, des ondes courtes un rayonnement électromagnétique K. Roentgen, radioactivité par A. Becquerel, électron par J. Thomson, pression lumineuse par P.N. Lebedev, introduction de l'idée d'un quantum par M. Planck, création de la théorie de la relativité par A. Einstein, description de la processus de désintégration radioactive par E. Rutherford. En 1913 - 1921 sur la base d'idées sur le noyau atomique, les électrons et les quanta, N. Bohr crée un modèle de l'atome, dont le développement est effectué conformément à système périodiqueéléments D.I. Mendeleev. C'est la première étape de la plus récente révolution de la physique et de toutes les sciences naturelles. Elle s'accompagne de l'effondrement des idées antérieures sur la matière et sa structure, ses propriétés, ses formes de mouvement et ses types de régularités, sur l'espace et le temps. Cela a conduit à une crise de la physique et de toutes les sciences naturelles, qui était le symptôme d'une crise plus profonde des fondements philosophiques métaphysiques de la science classique.

La deuxième étape de la révolution a commencé au milieu des années 1920. XXe siècle et est associée à la création de la mécanique quantique et à sa combinaison avec la théorie de la relativité dans une nouvelle image physique quantique-relativiste du monde.

À la fin de la troisième décennie du XXe siècle, presque tous les principaux postulats précédemment avancés par la science se sont avérés réfutés. Celles-ci comprenaient des idées sur les atomes en tant que "briques" de matière solides, indivisibles et séparées, sur le temps et l'espace en tant qu'absolus indépendants, sur la stricte causalité de tous les phénomènes, sur la possibilité d'une observation objective de la nature.

Les idées scientifiques antérieures ont été littéralement contestées de toutes parts. Les atomes solides newtoniens, comme cela est maintenant devenu clair, sont presque entièrement remplis de vide. La matière solide n'est plus la substance naturelle la plus importante. L'espace tridimensionnel et le temps unidimensionnel sont devenus des manifestations relatives du continuum espace-temps quadridimensionnel. Le temps s'écoule différemment pour ceux qui se déplacent à des vitesses différentes. Près d'objets lourds, le temps ralentit, et dans certaines circonstances, il peut même s'arrêter complètement. Les lois de la géométrie euclidienne ne s'imposent plus pour la gestion de la nature à l'échelle de l'Univers. Les planètes se déplacent sur leurs orbites non pas parce qu'elles sont attirées vers le Soleil par une force agissant à distance, mais parce que l'espace même dans lequel elles se déplacent est courbe. Les phénomènes subatomiques se révèlent à la fois comme des particules et des ondes, démontrant leur double nature. Il devenait impossible de calculer simultanément la position d'une particule et de mesurer son accélération. Le principe d'incertitude a fondamentalement sapé et remplacé le vieux déterminisme laplacien. Les observations et les explications scientifiques ne pouvaient avancer sans affecter la nature de l'objet observé. Le monde physique, vu à travers les yeux d'un physicien du XXe siècle, ressemblait moins à une énorme machine qu'à une immense pensée.

Le début de la troisième étape de la révolution a été la maîtrise de l'énergie atomique dans les années 40 de notre siècle et les recherches ultérieures, associées à l'émergence des ordinateurs électroniques et de la cybernétique. Aussi au cours de cette période, avec la physique, la chimie, la biologie et le cycle des sciences de la terre ont commencé à diriger. Il convient également de noter que depuis le milieu du XXe siècle, la science a finalement fusionné avec la technologie, conduisant à la révolution scientifique et technologique moderne.

L'image scientifique quantique-relativiste du monde a été le premier résultat de la plus récente révolution des sciences naturelles.

Un autre résultat de la révolution scientifique a été l'établissement d'un style de pensée non classique. Le style de pensée scientifique est une méthode pour poser des problèmes scientifiques, raisonner, présenter des résultats scientifiques, mener des discussions scientifiques, etc., acceptée dans la communauté scientifique. Il réglemente l'entrée de nouvelles idées dans l'arsenal des connaissances générales, forme le type de chercheur approprié. La dernière révolution scientifique a conduit au remplacement du style de pensée contemplatif par l'activité. Ce style a les caractéristiques suivantes :

1. La compréhension du sujet de la connaissance a changé : maintenant ce n'est plus la réalité dans forme pure, fixé par la contemplation vivante, mais une partie de sa tranche, obtenue à la suite de certaines méthodes théoriques et empiriques de maîtrise de cette réalité.

2. La science est passée de l'étude des choses, considérées comme immuables et capables d'entrer dans certaines relations, à l'étude des conditions dans lesquelles une chose non seulement se comporte d'une certaine manière, mais seulement en elles peut être ou non être quelque chose. Par conséquent, la théorie scientifique moderne commence par l'identification des méthodes et des conditions d'étude d'un objet.

3. La dépendance de la connaissance d'un objet vis-à-vis des moyens de cognition et de l'organisation des connaissances qui leur correspondent détermine le rôle particulier du dispositif, dispositif expérimental dans la connaissance scientifique moderne. Sans appareil, il n'y a souvent aucune possibilité de séparer le sujet de la science (théorie), puisqu'il se distingue en raison de l'interaction de l'objet avec l'appareil.

4. Analyse des seules manifestations spécifiques des côtés et des propriétés de l'objet à différents moments, en situations différentes conduit à une « dispersion » objective des résultats finaux de l'étude. Les propriétés d'un objet dépendent également de son interaction avec l'appareil. Cela implique la légitimité et l'égalité des différents types de description de l'objet, de ses différentes images. Si la science classique traitait d'un seul objet, affiché de la seule manière vraie possible, alors la science moderne traite de nombreuses projections de cet objet, mais ces projections ne peuvent prétendre en être une description complète et complète.

5. Le rejet du réalisme contemplatif et naïf des installations de la science classique a conduit à une augmentation de la mathématisation de la science moderne, à la fusion de la recherche fondamentale et appliquée, à l'étude de types de réalités extrêmement abstraits, jusque-là totalement inconnus de la science. - les réalités potentielles (mécanique quantique) et les réalités virtuelles (physique des hautes énergies), qui ont conduit à l'interpénétration du fait et de la théorie, à l'impossibilité de séparer l'empirique du théorique.

La science moderne se distingue par une augmentation de son niveau d'abstraction, une perte de visibilité, conséquence de la mathématisation de la science, et la possibilité de fonctionner avec des structures très abstraites dépourvues de prototypes visuels.

Les fondements logiques de la science ont également changé. La science a commencé à utiliser un tel appareil logique, qui est le plus approprié pour fixer une nouvelle approche d'activité à l'analyse des phénomènes de la réalité. Ceci est lié à l'utilisation de logiques multivaluées non classiques (non aristotéliciennes), aux restrictions et au refus d'utiliser des techniques logiques classiques telles que la loi du tiers exclu.

Enfin, un autre résultat de la révolution scientifique a été le développement de la classe biosphérique des sciences et une nouvelle attitude envers le phénomène de la vie. La vie a cessé d'apparaître comme un phénomène aléatoire dans l'Univers, mais a commencé à être considérée comme le résultat naturel de l'auto-développement de la matière, qui a également conduit naturellement à l'émergence de l'esprit. Les sciences de la classe biosphérique, qui comprennent la science du sol, la biogéochimie, la biocénologie, la biogéographie, étudient les systèmes naturels où il y a une interpénétration du vivant et nature inanimée, c'est-à-dire qu'il existe une interrelation d'éléments hétérogènes phénomène naturel. Les sciences biosphériques sont basées sur le concept d'histoire naturelle, l'idée de connexion universelle dans la nature. La vie et le vivant y sont appréhendés comme un élément essentiel du monde, façonnant effectivement ce monde, le créant sous sa forme actuelle.

PRINCIPALES CARACTÉRISTIQUES DE LA SCIENCE MODERNE

La science moderne est une science associée à l'image quantique-relativiste du monde. Dans presque toutes ses caractéristiques, elle diffère de la science classique, de sorte que la science moderne est autrement appelée science non classique. En tant qu'état qualitativement nouveau de la science, il a ses propres caractéristiques.

1. Le rejet de la reconnaissance de la mécanique classique comme science de pointe, son remplacement par des théories quantiques-relativistes a conduit à la destruction du modèle classique du mécanisme du monde. Il a été remplacé par un modèle de pensée mondiale, basé sur les idées de connexion universelle, de variabilité et de développement.

La nature mécaniste et métaphysique de la science classique : ont été remplacées par de nouvelles attitudes dialectiques :

: - le déterminisme mécanique classique, qui exclut absolument l'aléatoire de l'image du monde, a été remplacé par le déterminisme probabiliste moderne, qui implique une variabilité de l'image du monde ;

Le rôle passif de l'observateur et de l'expérimentateur dans la science classique a été remplacé par une nouvelle approche de l'activité, reconnaissant l'influence indispensable du chercheur lui-même, des instruments et des conditions sur l'expérience et les résultats obtenus au cours de celle-ci ;

Le désir de trouver l'ultime principe fondamental matériel du monde a été remplacé par la croyance en l'impossibilité fondamentale de le faire, l'idée de l'inépuisabilité de la matière en profondeur;

Une nouvelle approche pour comprendre la nature activité cognitive repose sur la reconnaissance de l'activité du chercheur, qui n'est pas seulement un miroir de la réalité, mais en forme effectivement l'image ;

La connaissance scientifique n'est plus comprise comme absolument fiable, mais seulement comme relativement vraie, existant dans une variété de théories contenant des éléments de connaissance objectivement vraie, ce qui détruit l'idéal classique d'une connaissance précise et rigoureuse (quantitativement illimitée détaillée), provoquant l'inexactitude et le laxisme de la science moderne.

2. L'image d'une nature en constante évolution se reflète dans de nouvelles installations de recherche :

Refus d'isoler le sujet des influences environnementales, ce qui était caractéristique de la science classique ;

Reconnaissance de la dépendance des propriétés d'un objet à la situation spécifique dans laquelle il se trouve;

Une évaluation holistique du système du comportement d'un objet, qui est reconnue comme due à la fois à la logique du changement interne et aux formes d'interaction avec d'autres objets ;

Dynamisme - le passage de l'étude des organisations structurelles à l'équilibre à l'analyse des structures hors équilibre, non stationnaires, des systèmes ouverts avec rétroaction;

Anti-élémentarisme - le rejet du désir de distinguer les composants élémentaires structures complexes, analyse systémique de systèmes ouverts hors équilibre à fonctionnement dynamique.

3. Le développement de la classe biosphérique des sciences, ainsi que le concept d'auto-organisation de la matière, prouvent l'apparition non aléatoire de la Vie et de la Raison dans l'Univers ; cela nous ramène au problème du but et de la signification de l'univers à un nouveau niveau, parle de l'apparition planifiée de l'esprit, qui se manifestera pleinement dans le futur.

4. La confrontation entre la science et la religion a atteint sa fin logique. Il n'est pas exagéré de dire que la science est devenue la religion du XXe siècle. La conjonction de la science et de la production, la révolution scientifique et technologique qui s'est amorcée au milieu du siècle, semblaient apporter des preuves tangibles du rôle moteur de la science dans la société. Le paradoxe était que c'était cette preuve tangible qui était destinée à être décisive pour obtenir l'effet inverse.

Interprétation des données reçues. L'observation est toujours effectuée dans le cadre d'une théorie scientifique afin de la confirmer ou de l'infirmer. La même méthode universelle de connaissance scientifique est une expérience, lorsque les conditions naturelles sont reproduites dans des conditions artificielles. L'avantage incontestable de l'expérience est qu'elle peut être répétée plusieurs fois, introduisant à chaque fois de nouvelles et de nouvelles ...

Mais, comme Gödel l'a montré, il y aura toujours un reste non formalisable dans une théorie, c'est-à-dire qu'aucune théorie ne peut être complètement formalisée. La méthode formelle - même si elle est menée de manière cohérente - ne couvre pas tous les problèmes de la logique de la connaissance scientifique (que les positivistes logiques espéraient). 2. La méthode axiomatique est une méthode de construction d'une théorie scientifique, dans laquelle elle est basée sur certaines similitudes ...