Graphiques et chimie. Théorie des graphes en chimie et problèmes non résolus. Plusieurs tâches intéressantes

Graphiques et chimie.  Théorie des graphes en chimie et problèmes non résolus.  Plusieurs tâches intéressantes
Graphiques et chimie. Théorie des graphes en chimie et problèmes non résolus. Plusieurs tâches intéressantes
1 Au cours des dernières décennies, les concepts de topologie et de théorie des graphes se sont répandus en chimie théorique. Ils sont utiles pour rechercher des relations quantitatives « structure-propriété » et « structure-activité », ainsi que pour résoudre des problèmes de théorie des graphes et d'algébrique combinatoire qui surviennent lors de la collecte, du stockage et du traitement d'informations sur la structure et les propriétés des substances.

Les graphiques servent principalement à représenter des molécules. Lors de la description topologique d'une molécule, elle est représentée sous la forme d'un graphe moléculaire (MG), où les sommets correspondent aux atomes et les arêtes correspondent aux liaisons chimiques (modèle théorique des graphes d'une molécule). Habituellement, dans cette représentation, seuls les atomes du squelette sont considérés, par exemple les hydrocarbures avec des atomes d'hydrogène « effacés ».

La valence des éléments chimiques impose certaines restrictions sur les degrés des sommets. Pour les arbres alcanes (graphes connectés qui n'ont pas de cycles), les degrés des sommets (r) ne peuvent pas dépasser quatre (r = 1, 2, 3, 4).

Les graphiques peuvent être spécifiés sous forme matricielle, ce qui est pratique lorsque vous travaillez avec eux sur un ordinateur.

La matrice d'adjacence des sommets d'un graphe simple est une matrice carrée A = [aσχ] avec des éléments aσχ = 1 si les sommets σ et χ sont reliés par une arête, et σχ = 0 sinon. La matrice de distance est une matrice carrée D = avec des éléments dσχ, définie comme le nombre minimum d'arêtes (distance la plus courte) entre les sommets σ et χ. Parfois, des matrices de contiguïté et de distances le long des bords (A e et D e) sont également utilisées.

La forme des matrices A et D (A e et D e) dépend de la méthode de numérotation des sommets (ou arêtes), ce qui entraîne des désagréments lors de leur manipulation. Pour caractériser le graphe, des invariants de graphe sont utilisés - les indices topologiques (TI).

Nombre de chemins de longueur un

pi = xss 0 = m = n-1

Nombre de chemins de longueur deux

Nombre de triplets d'arêtes adjacentes (avec un sommet commun)

Nombre de Wiener (W), défini comme la moitié de la somme des éléments de la matrice de distance du graphe considéré :

etc.

La méthodologie d'étude de la relation structure-propriété à travers des indices topologiques dans l'approche de la théorie des graphes comprend les étapes suivantes.

Sélection d'objets de recherche (échantillon d'entraînement) et analyse de l'état des données numériques sur la propriété P pour une gamme donnée de composés.

Sélection des TI en tenant compte de leur pouvoir discriminant, capacité de corrélation avec les propriétés, etc.

Etude des dépendances graphiques « Propriété P - TI du graphe d'une molécule », par exemple, P sur n - le nombre d'atomes squelettiques, P sur W - nombre de Wiener, etc.

Établir une relation fonctionnelle (analytique) P = _DTI), par exemple,

P = une(TI) + b,

P = aln(TI) + b,

P = a(TI) 1 +b(TI) 2 +...+n(TI) n +c

et ainsi de suite. Voici a, b, c quelques paramètres (à ne pas confondre avec les paramètres des circuits additifs) à déterminer.

Calculs numériques de P, comparaison des valeurs calculées avec celles expérimentales.

Prédiction des propriétés de composés qui n'ont pas encore été étudiés ni même obtenus (en dehors de cet échantillon).

Les indices topologiques sont également utilisés dans la construction de schémas de calcul et de prévision additifs. Ils peuvent être utilisés dans le développement de nouveaux médicaments, pour évaluer l'activité cancérigène de certains produits chimiques, pour prédire la stabilité relative de nouveaux composés (non encore synthétisés), etc.

Il convient toutefois de rappeler que le choix de TI est souvent aléatoire ; ils peuvent ne pas refléter les caractéristiques structurelles importantes des molécules ou dupliquer des informations (obtenues à l'aide d'autres indices), et les schémas de calcul peuvent ne pas avoir de fondement théorique solide et sont difficiles à interpréter physico-chimiques.

L'équipe du Département de chimie physique de l'Université d'État de Tver mène depuis de nombreuses années des recherches informatiques et théoriques sur le problème « Relation entre les propriétés des substances et la structure des molécules : modélisation mathématique (informatique) ». L'accent est mis sur la recherche ciblée de nouvelles structures, d'algorithmes pour résoudre un certain nombre de problèmes de théorie des graphes et combinatoires qui se posent lors de la collecte et du traitement d'informations sur la structure et les propriétés des substances, la création de systèmes et de bases de données experts de recherche d'informations, le développement de méthodes quantitatives de calcul et de prévision.

Nous avons construit des schémas additifs et trouvé des dépendances analytiques de la forme P = Y(TI) pour un certain nombre de molécules organiques et autres. À l'aide des formules obtenues, des calculs numériques des propriétés physico-chimiques des composés considérés ont été effectués, p.

Bibliographie

  1. Vinogradova M.G., Papulov Yu.G., Smolyakov V.M. Corrélations quantitatives des « propriétés structurelles » des alcanes. Schémas de calcul additifs. Tver, 1999. 96 p.
  2. Applications chimiques de la topologie et de la théorie des graphes / Ed. R. King. M. : Mir, 1987. 560 p.
  3. Application de la théorie des graphes en chimie / Ed. N.-É. Zefirov et S.I. Kouchanova. Novo-Sibirsk : Nauka, 1988. 306 p.
  4. Stankevitch M.I., Stankevitch I.V., Zefirov N.S. Indices topologiques en chimie organique // Avancées en chimie. 1988. T.57, n° 3, P.337-366.
  5. Vinogradova M.G., Saltykova M.N. Approche théorique des graphes pour étudier la relation entre la structure et les propriétés des alkylsilanes.// Fundamental Research, 2009. No. 1. p. 17-19.
  6. Vinogradova M.G., Saltykova M.N., Efremova A.O., Malchevskaya O.A. La relation entre la structure et les propriétés des alkylsilanes // Advances in modern natural science, n° 1, 2010. P. 136-137.
  7. Vinogradova M.G., Saltykova M.N., Efremova A.O. Corrélations « structure-propriétés » des alkylsilanes : une approche théorique des graphes // Advances in modern science, n° 3, 2010. P. 141-142.

Lien bibliographique

Vinogradova M.G. THÉORIE DES GRAPHES EN CHIMIE // Revue internationale de recherche appliquée et fondamentale. – 2010. – n° 12. – P. 140-142 ;
URL : http://dev.applied-research.ru/ru/article/view?id=1031 (date d'accès : 17/12/2019). Nous portons à votre connaissance les magazines édités par la maison d'édition "Académie des Sciences Naturelles"

B - P + G = 1, (*)

où B est le nombre total de sommets, P est le nombre total d'arêtes, G est le nombre de polygones (faces).

Preuve. Montrons que l'égalité ne change pas si une diagonale est tracée dans un polygone d'une partition donnée (Fig. 2, a).

un B)

Figure 2

En effet, après avoir tracé une telle diagonale, la nouvelle partition aura B sommets, P+1 arêtes, et le nombre de polygones augmentera de un. Par conséquent, nous avons

B - (P + 1) + (G+1) = B – P + G.

En utilisant cette propriété, nous dessinons des diagonales qui divisent les polygones entrants en triangles, et pour la partition résultante, nous montrons la faisabilité de la relation.

Pour ce faire, nous supprimerons séquentiellement les arêtes externes, réduisant ainsi le nombre de triangles. Dans ce cas, deux cas sont possibles :

pour supprimer le triangle ABC, vous devez supprimer deux arêtes, dans notre cas AB et BC ;

Pour supprimer le triangle MKN, vous devez supprimer une arête, dans notre cas MN.

Dans les deux cas, l’égalité ne changera pas. Par exemple, dans le premier cas, après avoir supprimé le triangle, le graphique sera composé de sommets B-1, d'arêtes P-2 et d'un polygone G-1 :

(B - 1) - (P + 2) + (G -1) = B – P + G.

Ainsi, supprimer un triangle ne change pas l’égalité.

En poursuivant ce processus de suppression des triangles, nous arriverons finalement à une partition constituée d'un seul triangle. Pour une telle partition B = 3, P = 3, G = 1 et donc

B-P + G = 1.

Cela signifie que l'égalité vaut également pour la partition d'origine, d'où on obtient finalement que la relation est valable pour cette partition du polygone.

Notez que la relation d'Euler ne dépend pas de la forme des polygones. Les polygones peuvent être déformés, agrandis, réduits ou même leurs côtés pliés, à condition que les côtés ne se cassent pas. La relation d'Euler ne changera pas.

Passons maintenant à la résolution du problème des trois maisons et des trois puits.

Solution . Supposons que cela puisse être fait. Marquons les maisons par les points D1, D2, D3, et les puits par les points K1, K2, K3 (Fig. 1). Nous connectons chaque point de la maison à chaque point du puits. Nous obtenons neuf arêtes qui ne se coupent pas deux à deux.

Ces arêtes forment un polygone sur le plan, divisé en polygones plus petits. Par conséquent, pour cette partition, la relation d'Euler B - P + G = 1 doit être satisfaite.

Ajoutons une face supplémentaire aux faces considérées - la partie extérieure du plan par rapport au polygone. Alors la relation d'Euler prendra la forme B - P + G = 2, avec B = 6 et P = 9.

Par conséquent, Г = 5. Chacune des cinq faces a au moins quatre arêtes, puisque, selon les conditions du problème, aucun des chemins ne doit relier directement deux maisons ou deux puits. Puisque chaque arête repose sur exactement deux faces, le nombre d’arêtes doit être d’au moins (5 4)/2 = 10, ce qui contredit la condition selon laquelle leur nombre est 9.

La contradiction qui en résulte montre que la réponse au problème est négative - il est impossible de tracer des chemins non sécants de chaque maison à chaque village

Théorie des graphes en chimie

Application de la théorie des graphes à la construction et à l'analyse de diverses classes de graphiques chimiques et chimico-technologiques, également appelés topologie, modèles, c'est-à-dire des modèles qui prennent en compte uniquement la nature des connexions entre les sommets. Les arcs (bords) et les sommets de ces graphiques reflètent des concepts, des phénomènes, des processus ou des objets chimiques et chimico-technologiques et, par conséquent, des relations qualitatives et quantitatives ou certaines relations entre eux.

Problèmes théoriques. Les graphiques chimiques permettent de prédire les transformations chimiques, d'expliquer l'essence et de systématiser certains concepts de base de la chimie : structure, configuration, confirmations, interactions mécaniques quantiques et statistiques-mécaniques des molécules, isomérie, etc. Les graphiques chimiques comprennent les graphiques moléculaires, bipartis et de signaux. des équations de réaction cinétique. Les graphiques moléculaires, utilisés en stéréochimie et en topologie structurale, en chimie des clusters, des polymères, etc., sont des graphiques non orientés qui affichent la structure des molécules. Les sommets et les arêtes de ces graphiques correspondent aux atomes correspondants et aux liaisons chimiques entre eux.

Dans l'organisation de stéréochimie. c-c les plus couramment utilisés sont les arbres moléculaires - arbres couvrants de graphes moléculaires qui contiennent uniquement tous les sommets correspondant aux atomes. Compiler des ensembles d'arbres moléculaires et établir leur isomorphisme permet de déterminer les structures moléculaires et de trouver le nombre total d'isomères des alcanes, alcènes et alcynes. Les graphiques moléculaires permettent de réduire les problèmes liés au codage, à la nomenclature et aux caractéristiques structurelles (ramification, cyclicité, etc.) des molécules de divers composés à l'analyse et à la comparaison de caractéristiques et propriétés purement mathématiques des graphiques moléculaires et de leurs arbres, ainsi qu'à leurs matrices correspondantes. Pour identifier le nombre de corrélations entre la structure des molécules et les propriétés physico-chimiques (y compris pharmacologiques) des composés, plus de 20 corrélations ont été développées. Indices topologiques de molécules (Wiener, Balaban, Hosoya, Plata, Randic, etc.), déterminés à l'aide de matrices et de caractéristiques numériques d'arbres moléculaires. Par exemple, l'indice de Wiener W = (m3 + m)/6, où m est le nombre de sommets correspondant aux atomes de C, est en corrélation avec les volumes moléculaires et les réfractions, les enthalpies de formation, la viscosité, la tension superficielle, les constantes chromatographiques des composés, l'octane. nombre d'hydrocarbures et même de physiol. activité des médicaments. Les paramètres importants des graphiques moléculaires utilisés pour déterminer les formes tautomères d'une substance donnée et leur réactivité, ainsi que dans la classification des acides aminés, des acides nucléiques, des glucides et d'autres composés naturels complexes, sont la capacité d'information moyenne et totale (H). L'analyse de graphes moléculaires de polymères, dont les sommets correspondent à des unités monomères, et les arêtes correspondent à des liaisons chimiques entre eux, permet d'expliquer, par exemple, les effets de volume exclu conduisant aux qualités. changements dans les propriétés prévues des polymères. En utilisant la théorie des graphes et les principes de l'intelligence artificielle, des logiciels pour les systèmes de recherche d'informations en chimie, ainsi que des systèmes automatisés pour l'identification des structures moléculaires et la planification rationnelle de la synthèse organique, ont été développés. Pour la mise en œuvre pratique sur ordinateur d'opérations de sélection de chemins chimiques rationnels. les transformations basées sur les principes rétrosynthétiques et syntoniques utilisent des graphiques de recherche ramifiés à plusieurs niveaux pour les options de solution, dont les sommets correspondent aux graphiques moléculaires des réactifs et des produits, et les arcs représentent les transformations.

Pour résoudre des problèmes multidimensionnels d'analyse et d'optimisation des systèmes technologiques chimiques (CTS), les graphiques technologiques chimiques suivants sont utilisés : graphiques de flux, de flux d'informations, de signaux et de fiabilité. Pour étudier en chimie. La physique des perturbations dans les systèmes constitués d'un grand nombre de particules utilise ce qu'on appelle. Les diagrammes de Feynman sont des graphiques dont les sommets correspondent aux interactions élémentaires de particules physiques, les bords de leurs trajectoires après collisions. Ces graphiques permettent notamment d'étudier les mécanismes des réactions oscillatoires et de déterminer la stabilité des systèmes réactionnels. Les graphiques de flux de matières affichent les changements de débits de produits chimiques dans les systèmes chimiques. Les graphiques de flux thermique affichent les bilans thermiques dans CTS ; les sommets des graphiques correspondent aux dispositifs dans lesquels la consommation thermique des flux physiques change et, en plus, aux sources et puits d'énergie thermique du système ; les arcs correspondent à des flux de chaleur physiques et fictifs (conversion d'énergie physico-chimique dans les appareils), et les poids des arcs sont égaux aux enthalpies des flux. Les graphiques de matériaux et thermiques sont utilisés pour compiler des programmes pour le développement automatisé d'algorithmes permettant de résoudre des systèmes d'équations pour les bilans de matériaux et de chaleur de systèmes chimiques complexes. Les graphiques de flux d'informations affichent la structure logique de l'information des systèmes d'équations mathématiques. Modèles XTS ; sont utilisés pour développer des algorithmes optimaux pour calculer ces systèmes. Un graphe d'information biparti est un graphe non orienté ou orienté dont les sommets correspondent respectivement. les équations fl -f6 et les variables q1 – V, et les branches reflètent leur relation. Graphique d'information – un digraphe illustrant l'ordre de résolution des équations ; les sommets du graphe correspondent à ces équations, sources et récepteurs d'informations XTS, et les branches correspondent à des informations. variables. Les graphiques de signaux correspondent à des systèmes linéaires d'équations de modèles mathématiques de processus et de systèmes technologiques chimiques. Les graphiques de fiabilité sont utilisés pour calculer divers indicateurs de fiabilité X.

Les références:

1.Berge K., T. g. et son application, traduction du français, M., 1962 ;

2. Kemeny J., Snell J., Thompson J., Introduction aux mathématiques finies, trans. de l'anglais, 2e éd., M., 1963 ;

3.Ope O., Les graphiques et leur application, trans. de l'anglais, M., 1965 ;

4. Belykh O.V., Belyaev E.V., Possibilités d'utilisation de la technologie en sociologie, dans : L'Homme et la Société, vol. 1, [L.], 1966 ;

5. Méthodes quantitatives dans la recherche sociologique, M., 1966 ; Belyaev E.V., Problèmes de mesures sociologiques, "VF", 1967, n° 7 ; Bavelas. Modèles de communication dans des groupes axés sur des tâches, dans le livre. Lerner D., Lass Well H., Sciences politiques, Stanford, 1951 ;

  • Spécialité de la Commission supérieure d'attestation de la Fédération de Russie02.00.03
  • Nombre de pages 410

Contenu de la thèse Docteur en sciences chimiques Vonchev, Danail Georgiev

Il y a un demi-siècle, Paul Dirac exprimait l'opinion selon laquelle, en principe, toute chimie est contenue dans les lois de la mécanique quantique, mais en réalité, dans les calculs pratiques, des difficultés mathématiques insurmontables surviennent. La technologie informatique électronique a contribué à réduire la distance entre les possibilités et la mise en œuvre de l’approche mécanique quantique. Pourtant, les calculs pour les molécules comportant un grand nombre d’électrons sont complexes et manquent de précision, et jusqu’à présent, peu de propriétés moléculaires peuvent être calculées de cette manière. D'un autre côté, en chimie organique, il existe des problèmes structurels importants qui n'ont pas été entièrement résolus, et tout d'abord il s'agit du problème de la relation entre la structure et les propriétés des molécules. En chimie théorique, il s'agit d'une évaluation quantitative des principales caractéristiques structurelles des molécules - leur ramification et leur cyclicité. Cette question est importante, car l'analyse quantitative des tendances générales dans la structure des molécules ramifiées et cycliques peut, dans une large mesure, être transférée à leurs propriétés. De cette manière, il serait possible de prédire l'ordre d'un groupe de composés isomères en fonction des valeurs de propriétés telles que la stabilité, la réactivité, les propriétés spectrales et thermodynamiques, etc. Cela pourrait faciliter la prédiction des propriétés de composés encore non synthétisés. Des classes de composés et la recherche de structures avec des propriétés prédéterminées restent ouvertes et la question du codage rationnel des informations chimiques en vue de leur stockage et de leur utilisation efficaces à l'aide d'un ordinateur constituerait une solution optimale à ce problème. ont également un impact sur l'amélioration de la classification et de la nomenclature des composés organiques et des mécanismes des réactions chimiques avant que la théorie périodique des éléments chimiques ne pose également la question d'une interprétation holistique et quantitative de la périodicité des propriétés chimiques. éléments basés sur des quantités qui reflètent mieux la structure électronique que le numéro atomique de l’élément.

En conséquence, au cours des dernières décennies, le développement de nouvelles méthodes théoriques en chimie, regroupées sous le nom de chimie mathématique, a été stimulé. La place principale y est occupée par les méthodes topologiques, qui reflètent les propriétés structurelles et géométriques les plus générales des molécules. L'une des branches de la topologie, la théorie des graphes, offre un langage mathématique pratique pour un chimiste pour décrire une molécule, puisque les formules développées sont essentiellement des graphiques chimiques. Les avantages qu'offre la théorie des graphes dans la recherche chimique reposent sur la possibilité d'application directe de son appareil mathématique sans utiliser d'ordinateur, ce qui est important pour les chimistes expérimentaux. La théorie des graphes permet de comprendre tout simplement les caractéristiques structurelles des molécules. Les résultats obtenus sont généraux et peuvent être formulés sous forme de théorèmes ou de règles et peuvent ainsi trouver une application pour tout objet chimique (et non chimique) similaire.

Après la publication des travaux fondamentaux de Shannon et Wiener sur la théorie de l'information et la cybernétique, l'intérêt pour les méthodes de recherche en théorie de l'information n'a cessé de croître. Le sens originel du terme « information » est associé aux informations, aux messages et à leur transmission. Ce concept a rapidement dépassé les limites de la théorie de la communication et de la cybernétique et a pénétré diverses sciences sur la nature vivante et inanimée, la société et la cognition. Le processus de développement d'une approche scientifique de la théorie de l'information est plus complexe que le transfert formel de la catégorie cybernétique de l'information vers d'autres domaines de la connaissance. L'approche informationnelle n'est pas simplement une traduction de langues moins courantes vers un métalangage. Elle offre une perspective différente sur les systèmes et les phénomènes et permet d'obtenir de nouveaux résultats. En élargissant les liens entre différentes disciplines scientifiques, cette méthode permet de trouver des analogies utiles et des modèles généraux entre les niches. La science moderne en développement s’efforce d’atteindre un degré toujours plus grand de généralisation, d’unité. À cet égard, la théorie de l'information est l'un des domaines les plus prometteurs.

Une place importante dans ce processus est occupée par l'application de la théorie de l'information en chimie et dans d'autres sciences naturelles - physique, biologie, etc. Dans ces sciences, les méthodes de la théorie de l'information sont utilisées dans l'étude et la description des propriétés des objets et des processus qui sont associés à la structure, à l'ordre et aux systèmes d'organisation « L'utilité de l'approche informationnelle en chimie réside principalement dans le fait qu'elle offre de nouvelles possibilités d'analyse quantitative de divers aspects des structures chimiques - atomes, molécules, cristaux, etc. , des idées sur l'information « structurelle » et le « contenu de l'information » des atomes et des molécules.

En relation avec ce qui précède, l'objectif principal de la thèse est de montrer la fécondité de l'approche théorique des graphes et de la théorie de l'information des problèmes structurels. En chimie, des atomes et molécules aux polymères et cristaux, la réalisation de cet objectif implique les étapes suivantes :

1. Détermination d'un système de grandeurs (informations et indices topologiques ; pour la caractérisation quantitative des atomes, molécules, polymères et cristaux.

2. Développement sur cette base d'une nouvelle approche plus générale de la question de la corrélation entre leurs propriétés, structure géométrique et électronique. Prédiction des propriétés de certains composés organiques, polymères et éléments transactinides nMx non synthétisés.

Création de méthodes de modélisation de la croissance cristalline et des lacunes cristallines.

3. Caractérisation topologique généralisée des molécules en exprimant l'essence de leur ramification et de leur cyclicité dans une série de règles structurelles mathématiquement prouvées, et étude de la correspondance de ces règles avec diverses propriétés moléculaires.

4. Création de méthodes nouvelles et efficaces de codage des composés chimiques et des mécanismes de réactions chimiques en lien avec l'amélioration de leur classification et de leur nomenclature et notamment en lien avec l'utilisation d'ordinateurs pour le traitement de l'information chimique.

CHAPITRE 2. MÉTHODE DE RECHERCHE 2L. MÉTHODE TEOREJO-INSTRUMENTATION 2.1.1" Introduction

L’information est l’un des concepts les plus fondamentaux de la science moderne, un concept non moins général que les concepts de matière et d’énergie. Ce point de vue trouve sa justification dans les définitions mêmes de l’information. Selon Wiener, « l’information n’est ni matière ni énergie ».

Ashby considère l'information comme « une mesure de la variété d'un système donné ». Selon Glushkov, « l’information est une mesure de l’inhomogénéité dans la répartition de l’espace et du temps ». Sur cette base, on prend aujourd'hui de plus en plus conscience du fait qu'en plus de leur nature matérielle et énergétique, les objets et phénomènes naturels et technologiques ont également des propriétés informationnelles. Certaines prévisions vont plus loin, prédisant que la recherche scientifique se déplacera de plus en plus vers la nature informationnelle des processus, qui constituera l'objet principal de la recherche au XXIe siècle. Ces prévisions reposent essentiellement sur la possibilité d’un contrôle optimal des systèmes et des processus grâce à l’information, quoi exactement ? est la fonction principale de l’information en cybernétique. À l’avenir, ces idées pourraient conduire à la création de technologies dans lesquelles chaque atome et chaque molécule seront contrôlés par l’information, une opportunité qui n’a jusqu’à présent trouvé d’application que dans la nature vivante.

L’émergence de la théorie de l’information remonte généralement à 1948, lorsque Claude Shannon a publié son ouvrage fondateur. L’idée de l’information, cependant, en tant que quantité liée à l’entropie, est beaucoup plus ancienne. En 1894, Boltzmann a établi que toute information obtenue sur un système donné est associée à une diminution du nombre de ses états possibles et, par conséquent, une augmentation de l'entropie signifie une « perte d'informations ». En 1929

Szilard a développé cette idée dans le cas général de l'information en physique. son CP

Plus tard, Vrillouin « a généralisé les idées sur le lien entre l'entropie et l'information dans son principe néguentropique sous une forme qui couvre également l'aspect informationnel des phénomènes. Les questions sur le lien entre théorie de l'information et thermodynamique, et en particulier sur la relation entre entropie et information, font toujours l'objet de beaucoup d'attention (une liste détaillée des publications dans ce domaine est donnée dans la revue 58). Parmi les développements les plus récents sur la question, il convient de noter en particulier les travaux de Kobozev sur la thermodynamique de la pensée, dans lesquels est étayée la thèse sur la nature anti-entropique des processus de pensée.

Devenue une « théorie particulière de la communication », la théorie de l’information a rapidement dépassé ses limites originelles et trouvé des applications dans divers domaines scientifiques et technologiques : chimie, biologie, médecine, linguistique, psychologie, esthétique, etc. reconnu pour la première fois en biologie. Les problèmes importants liés au stockage, au traitement et à la transmission de l'information dans les organismes vivants, y compris le codage de l'information génétique 60-7, ont-ils été résolus ? évaluation de la possibilité d'une génération spontanée de vie sur Terre^, formulation des lois fondamentales de la thermodynamique biologique^, analyse des enjeux de bioénergie, etc. Le contenu informatif des objets a été utilisé comme critère quantitatif

A A A évolution ". La question a été posée sur le caractère informationnel des processus nutritionnels^®^^.

La théorie de l'information pénètre encore lentement la chimie et la physique, même si certains progrès ont été réalisés ces dernières années dans ce domaine. La question s'est posée de l'existence possible d'un équilibre d'information sur les réactions chimiques. Une évaluation a été faite de la capacité d'information des molécules bioorganiques et sur cette base, une nouvelle classification de ces composés a été proposée et la spécificité des réactions chimiques a été évaluée.

Levin, Bernstein et d'autres ont appliqué la théorie de l'information à la dynamique moléculaire pour décrire le comportement de systèmes moléculaires éloignés de l'équilibre. L'essence de cette approche est le concept de « surprise », un écart par rapport à ce qui est attendu sur la base de la distribution microcanonique. Diverses applications ont été proposées, notamment l'étude des performances des lasers, la détermination du rapport de branchement de chemins de réaction concurrents (en prenant comme plus probable le chemin qui correspond au maximum de la fonction de Shannon), etc.

Dodel et ses collègues ont proposé de répartir l'espace occupé par un système moléculaire en un certain nombre de sous-espaces mutuellement exclusifs appelés loges. Les meilleures loges contenant des groupes localisés d'électrons sont trouvées en minimisant la fonction d'information. Sears et al.^ ont découvert un lien entre les énergies cinétiques de la mécanique quantique et les quantités d'informations. En conséquence de ce résultat, le principe variationnel de la mécanique quantique peut être formulé comme le principe d’information minimale. fonctionnement du système d'exploitation

Kobozev et ses collègues ont lié la sélectivité et l'activité des catalyseurs à leur contenu informationnel. Ils ont également formulé des conditions d'information optimales pour la caractérisation et la prédiction des propriétés catalytiques. Formation et croissance du kris

Oh. Les rp oo talls étaient considérés comme un processus d’information. Rakov a soumis l'analyse des informations au traitement des surfaces du catalyseur avec divers agents chimiques.

Dans la chimie analytique moderne, la tendance à mener des expériences de manière optimale afin d'obtenir un maximum d'informations à partir d'un nombre minimum d'expériences se fait de plus en plus sentir.

Ces nouvelles idées s'appuient sur la théorie de l'information, la théorie des jeux et la théorie des systèmes. D'autres auteurs ont appliqué la théorie de l'information pour minimiser les erreurs et le temps d'analyse, pour atteindre une plus grande sélectivité, pour évaluer les performances des méthodes analytiques, etc. Les recherches de ce type incluent également des méthodes physiques en chimie analytique, notamment la chromatographie en phase gazeuse^^^, l'analyse spectrale d'émission atomique^, etc.

Les méthodes de théorie de l’information se sont également révélées utiles en géochimie pour caractériser la répartition des composés chimiques dans les systèmes géochimiques170, pour évaluer le degré de complexité et pour classer ces systèmes.

En ingénierie chimique, grâce à l'analyse de l'information, les problèmes des systèmes technologiques chimiques peuvent être résolus, tels que le choix des conditions de fonctionnement optimales, l'établissement d'exigences de contrôle, etc.101.

Des exemples d'application réussie de la théorie de l'information en chimie indiquent une fois de plus que les systèmes naturels et technologiques ont également une nature informationnelle. Cela montre également que l'approche informationnelle agit comme un langage universel pour décrire des systèmes, et en particulier des structures chimiques de tout type, auxquelles elle associe une certaine fonction informationnelle et une mesure numérique. Il s'agrandit. domaine des applications possibles de la théorie de l’information en chimie.

L’utilité de l’approche informationnelle en chimie réside avant tout dans le fait qu’elle offre la possibilité d’analyse quantitative de divers aspects des structures chimiques. Le degré de complexité de ces structures, leur organisation et leur spécificité peuvent être comparés sur une seule échelle quantitative. Cela nous permet d'étudier certaines des propriétés les plus générales des structures chimiques, telles que leur ramification et leur cyclicité, d'étudier et de comparer le degré d'organisation dans diverses classes de composés chimiques, la spécificité des substances biologiquement actives et des catalyseurs, et nous permet de aborder la question du degré de similitude et de différence entre deux objets chimiques.

L'approche informationnelle est très adaptée pour résoudre les problèmes de classification personnelle. Dans ces cas, il est possible de dériver des équations d'information générale pour les principaux groupements d'objets de classification (groupes et périodes du tableau périodique des éléments chimiques, séries homologues de composés chimiques, séries de composés isomères, etc.)*

La grande capacité discriminante des méthodes d’information par rapport à des structures complexes (isomères, isotopes, etc.) peut être utilisée dans le traitement informatique et le stockage d’informations chimiques. Ces méthodes sont utiles non seulement pour choisir entre différentes structures, mais aussi entre hypothèses et approximations alternatives, ce qui est intéressant pour la chimie quantique. La capacité de développer de nouvelles hypothèses basées sur la théorie de l’information est cependant plus limitée, puisque cette théorie décrit la relation mutuelle entre les variables, mais ne décrit le comportement d’aucune d’entre elles.

Problème. La relation qui existe entre la structure et les propriétés est un autre domaine d'application réussie de l'approche de la théorie de l'information en chimie. L'efficacité de cette approche sera démontrée dans les travaux de thèse portant sur des niveaux structurels qualitativement différents en chimie - coques électroniques d'atomes, de molécules, de polymères, de cristaux et même de noyaux atomiques^»^. Il peut être mis en œuvre sous des aspects tant qualitatifs que quantitatifs. Dans le premier cas, sur une base informationnelle, diverses règles structurelles peuvent être définies, reflétant l'influence mutuelle de deux ou plusieurs facteurs structurels. Il est également possible d'obtenir des corrélations quantitatives entre les indices d'information et les propriétés ?®. Dans le même temps, en principe, les indices d'information offrent de meilleures corrélations que d'autres indices, car ils reflètent plus pleinement les caractéristiques des structures chimiques. Des corrélations réussies sont possibles non seulement avec des quantités directement liées à l'entropie, mais également avec des quantités telles que l'énergie de liaison, dont le lien avec l'information est loin d'être évident. Cela inclut à la fois les propriétés d'une molécule ou d'un atome individuel, mais également de leurs grands agrégats, c'est-à-dire des propriétés qui dépendent de l'interaction entre les molécules et les atomes, et pas seulement de leur structure interne. En outre, les processus chimiques peuvent également faire l'objet de modifications. analyse de l'information basée sur les changements dans les indices d'information au cours des interactions.

Certaines limites de l’approche informationnelle doivent également être gardées à l’esprit. Bien qu’elles soient nombreuses, les mesures quantitatives de l’information sont relatives et non absolues. Ce sont également des caractéristiques statistiques et se rapportent à des agrégats, mais pas à des éléments individuels de ceux-ci. Des indices d'information peuvent être définis pour diverses propriétés d'atomes et de molécules, mais la relation entre eux est souvent complexe et exprimée sous forme implicite.

D’un autre côté, disposer de plusieurs index d’informations pour une même structure peut susciter des sentiments mitigés. Il ne faut toutefois pas oublier que chacun de ces indices est légal. La vraie question ici est de savoir lesquelles de ces quantités sont utiles et dans quelle mesure.

Dans ce chapitre, des indices de théorie de l'information ont été introduits pour la première fois : / caractérisant la structure électronique des atomes, ainsi que de nouveaux indices d'information sur la symétrie, la topologie et la structure électronique des molécules. L'application de ces caractéristiques structurelles est discutée au chapitre III, sections IV.2 et V 1.

2.1.2. Informations nécessaires issues de la théorie de l'information

La théorie de l'information propose des méthodes quantitatives pour étudier l'acquisition, le stockage, la transmission, la transformation et l'utilisation de l'information. La place principale dans ces méthodes est occupée par la mesure quantitative de l'information. La définition du concept de quantité d'information nécessite le rejet des idées répandues mais peu claires sur l'information en tant qu'ensemble de faits, d'informations et de connaissances.

Le concept de quantité d'informations est étroitement lié au concept d'entropie en tant que mesure de l'incertitude. En 1923, Hartley a caractérisé l'incertitude d'une expérience avec n résultats différents par le nombre ¿od p. Dans la théorie de l'information statistique de Shannon, publiée en 1948, la quantité d'information est déterminée par le concept de probabilité. On sait que ce concept est utilisé pour décrire une situation dans laquelle il existe une incertitude associée au choix d'un ou plusieurs éléments (résultats) dans un certain ensemble. Selon Shannon, une mesure de l'incertitude du résultat X/expérience X avec une probabilité p(X¡) -¿Oy(X)). Une mesure de l'incertitude moyenne d'une expérience complète X avec Xt, X2, ♦ résultats possibles, avec probabilités^ respectivement, p(X4), p(X2),. chp(Xn), est la quantité

Н(х) = - рсх,) Log p(Xi) сл>

Dans la théorie de l’information statistique, H(X) est appelé l’entropie de la distribution de probabilité. Ces derniers, dans le cas de /7 résultats différents, forment un schéma probabiliste fini, c'est-à-dire

Le concept de probabilité peut être défini de manière plus générale du point de vue de la théorie des ensembles. Soit un ensemble fini une partition de A en une classe /T) dans laquelle /\ sont des ensembles disjoints ; par une relation d'équivalence X * Ensemble de classes d'équivalence

R/X = (2.2 ; appelé l'ensemble des facteurs de R par X

La fonction probabiliste de Kolmogorov (correspondance probabiliste) p est soumise à trois conditions :

La série de nombres PfXf) , Р(Х2) , ., Р(ХГГ)) est appelée la distribution de la partition А, et la fonction de Shannon Н(X) de l'équation (2.1) exprime l'entropie de la partition X

Il convient de garder à l’esprit que le concept d’entropie en théorie de l’information est plus général que l’entropie thermodynamique. Cette dernière, considérée comme une mesure du désordre dans les mouvements atomiques-moléculaires, constitue un cas particulier du concept plus général d'entro-! pii - la mesure de tout désordre, incertitude ou diversité.

La quantité d'information X est exprimée par la quantité d'incertitude détachée. Ensuite, l'entropie moyenne d'un événement donné avec de nombreux résultats possibles est égale à la quantité moyenne d'informations requises pour sélectionner n'importe quel événement X dans l'ensemble ^ ,X^,. et est déterminé par la formule de Shannon (e 2.1) :

I(x) = -K$Lp(x,-)logp(K) = Hw

Ici, K est une constante positive qui définit les unités de mesure de l'information. En supposant que K = 4, l'entropie (respectivement l'information) est mesurée en unités décimales. Le système de mesure le plus pratique est basé sur des unités binaires (bits). ~ U2 et le logarithme vur-i (2.4) sont pris en base deux et \-! est noté par souci de concision. Une unité binaire d'information (ou 1 bit) est la quantité d'informations obtenue lorsque le résultat d'un choix. entre deux possibilités également probables est connue, et en unités d'entropie, le facteur de conversion¿ .dgasG\ est la constante de Voltzmann (1,38,10 yj.grad~divisé par /a?Yu.

Il a été prouvé que le choix d'une fonction logarithmique pour la quantité d'information n'est pas aléatoire, et c'est la seule fonction qui satisfait aux conditions d'activité et de non-négativité de l'information

Les informations simples et moyennes sont toujours positives. Cette propriété est liée au fait que la probabilité est toujours inférieure à un et que la constante de l’équation (2.4) est toujours considérée comme positive. E|&depuis ^ Y, alors

13 р(х,-) = Н(х,о с2.5) et cette inégalité persiste après la moyenne.

La quantité moyenne d'informations pour un événement (expérience) donné X atteint un maximum avec une distribution de probabilité uniforme p(X,) -p(X2)= . . .=p(Xn)* c'est-à-dire à p(X)) pour tout P :

Pour une paire d’événements dépendants aléatoires X et y, la quantité moyenne d’informations est également exprimée par la formule de Shannon :

1(xy> = - p(x,yj) N° pix, yj) (2.7)

L'équation (2.7) peut être généralisée pour tout ensemble fini, quelle que soit la nature de ses éléments :

1(xy) = -Z Z. P(X,nYj) 16P(X-,nYj) (2.8) sont deux ensembles de facteurs de P selon deux relations d'équivalence différentes x et y, et K/xy est un ensemble de facteurs de sections de X ; Et:

Après avoir écrit la probabilité conjointe dans l'équation (2.7) comme le produit de la probabilité inconditionnelle et conditionnelle p(x;,y^ = p(><¡)"P(Уj/x¡) , и представив логарифм в виде сумш»получается уравнение:

1(Xy) = 1(X) h- 1(y/X) (2.9) dans lequel T(x/y) est la quantité moyenne d'informations conditionnelles contenues dans y par rapport à x, et est donnée par l'expression :

1(y/X) = -U p(X,y1) 1B p(Y;/X-,) (2.10)

Définir une fonction :

1(X,y.! = 1(Y> - 1(y/X) (2-Ш et en le remplaçant dans l'équation (2.9) :

1(xy) - 1(X) + 1(y) -1(x,y) (2.12) il devient clair que T(X,y) exprime l'écart de l'information sur un événement complexe (X,y") par rapport à l'additivité des informations sur les événements individuels (résultats) : x et y. Par conséquent, G(X,Y) est une mesure du degré de dépendance statistique (connexion) entre X et y. L'égalité est également valable : 1(X, Y) - 1(yx) (2.13) qui caractérise la connexion entre X et y3 est symétrique.

Dans le cas général, pour le lien statistique entre x et y et la quantité moyenne d'informations inconditionnelles concernant X ou y, les inégalités suivantes sont valables : m!1(x>

L'égalité est valable lorsque le deuxième terme de l'équation (2.11) est nul, c'est-à-dire lorsque chaque / correspond à I, pour lequel p(y. ¡X))=

Si les quantités X et y sont indépendantes, c'est-à-dire si dans l’équation (2.12) T(X,y) =0, alors

1(xy) =1(X)<2Л5>

Cette équation exprime la propriété d'additivité de la quantité d'information et est généralisée pour les variables aléatoires indépendantes. on arrive à ça :

1(x„x2,.,xn) = 11 1(x/) (2.16)

Des approches non probabilistes pour la détermination quantitative d'informations sont également connues. Ingarden et Urbanikh ont proposé l'information axioshtichesnov/sizvdedeniye-Schein sans probabilités, sous la forme d'une fonction d'anneaux booléens finis. L'entropie epsilon proposée par Kolmogorov^^ (approche combinatoire) et en particulier la détermination algorithmique de la quantité d'information est d'un intérêt considérable. Selon Kolmogorov, la quantité d'informations contenues dans un objet (ensemble) par rapport à un autre objet (ensemble) est considérée comme la « longueur minimale » des programmes, écrits sous la forme d'une séquence de zéros et de uns, et permettant une transformation biunivoque. ; le premier objet dans le second : : = N(X/y) = Ш "Ш I (Р) (2-17)

L'approche algorithmique de Kolmogorov offre de nouvelles

17 fondements logiques de la théorie de l'information basés sur les concepts de complexité et de séquence, ainsi que les concepts d'« entropie » et de « quantité d'informations », se sont révélés applicables aux objets individuels.

Les méthodes non probabilistes de la théorie de l'information élargissent le contenu du concept de quantité d'information de la quantité d'incertitude réduite à la quantité d'uniformité réduite ou à la quantité de diversité conformément à l'interprétation d'Ashby. Tout ensemble de probabilités, normalisé à l'unité, peut être considéré comme correspondant à un certain ensemble d'éléments, jouissant de la diversité. Par diversité, on entend une caractéristique des éléments d'un ensemble, qui consiste en leur différence, écart par rapport à un rapport d'équivalence. Il peut s'agir d'un ensemble de divers éléments, connexions, relations, propriétés d'objets. La plus petite unité d'information, un peu, avec cette approche exprime la différence minimale, c'est-à-dire la différence entre deux objets qui ne sont pas identiques, diffèrent par certaines propriétés.

Dans cet aspect, les méthodes de la théorie de l'information sont applicables à la détermination de ce qu'on appelle. information structurelle « la quantité d'informations contenues dans la structure d'un système donné. Ici, la structure désigne tout ensemble fini dont les éléments sont répartis entre des sous-ensembles (classes d'équivalence) en fonction d'une certaine relation d'équivalence.

Supposons que cette structure contienne des éléments A/ et ils sont distribués selon un critère d'équivalence en sous-ensembles d'éléments équivalents : . Cette distribution correspond à un schéma probabiliste fini du sous-ensemble de probabilité ^ pn p2> . . ?Éléments RP

2.18) où ¿Г -Л/" et est la probabilité qu'un élément sélectionné (au hasard) tombe dans / - ce sous-ensemble qui a A/,-éléments. L'entropie H de la distribution de probabilité des éléments de cette structure, déterminée par l'équation (2.4), peut être considéré / comme une mesure de la quantité moyenne d'informations, I, contenue dans un élément de la structure : - n

1u Р/, bits par élément (2.19)

Le contenu informatif général de la structure est donné par l’équation dérivée (2.19) :

1-M1-A//0/h-khnmm,<*.»>

Il n'y a pas de consensus dans la littérature sur la manière de nommer les quantités définies par y (2.19) et (2.20). Certains auteurs préfèrent les appeler respectivement contenu d’information moyen et général. Ainsi, selon Mouschowitz, I n'est pas une mesure d'entropie au sens où elle est utilisée en théorie de l'information, et n'exprime pas non plus l'incertitude moyenne d'une structure constituée d'éléments /\/ dans l'ensemble de toutes les structures possibles ayant le idem : nombre d'éléments. I est plutôt le contenu informationnel de la structure considérée par rapport au système de transformations qui laissent le système invariant. Selon Reshr de l'équation (2.4), il mesure la quantité d'informations après l'expérience, et avant celle-ci, H(x) est une mesure de l'entropie associée à l'incertitude de l'expérience. Selon nous, « l'expérience » qui réduit l'incertitude des structures chimiques (atomes, molécules, etc.) est le « processus de formation de ces structures à partir de leurs éléments non liés. L'information est ici sous une forme connexe, elle est contenue dans le structure, et donc souvent le terme « contenu informatif » de la structure est utilisé.

Le concept d'information structurelle basé sur l'interprétation1 ci-dessus des équations (2.19) et (2.20) correspond bien aux idées d'Ashby sur la quantité d'information en tant que quantité de variété. Lorsqu’un système est constitué d’éléments identiques, il n’y a pas de diversité. Dans ce cas, dans y-yah (2.19) et (2.20)/="/

Avec la variété maximale d'éléments dans la structure, A £ = / et le contenu informatif de la structure est maximum :

4 «* -N16 et, T^^vI

2.1.3. Indices de théorie de l'information pour les caractéristiques de la structure électronique des atomes d'éléments chimiques

Liste recommandée de mémoires dans la spécialité "Chimie Organique", 02.00.03 code VAK

  • Problèmes asymptotiques de la théorie du codage combinatoire et de la théorie de l'information 2001, Candidat en Sciences Physiques et Mathématiques Vilenkin, Pavel Aleksandrovich2011, Candidat en sciences physiques et mathématiques Shutkin, Yuri Sergeevich

Veuillez noter que les textes scientifiques présentés ci-dessus sont publiés à titre informatif uniquement et ont été obtenus grâce à la reconnaissance de textes de thèse originaux (OCR). A cet égard, ils peuvent contenir des erreurs liées à des algorithmes de reconnaissance imparfaits. Il n’y a pas de telles erreurs dans les fichiers PDF des thèses et résumés que nous livrons.

E. Babaïev.  Candidat en sciences chimiques.

      Lorsqu'on parle de mathématisation de la science, on entend le plus souvent uniquement l'utilisation purement pragmatique de méthodes informatiques, oubliant la déclaration pertinente de A. A. Lyubishchev sur les mathématiques comme non pas tant une servante, mais la reine de toutes les sciences. C'est le niveau de mathématisation qui amène telle ou telle science dans la catégorie des sciences exactes, si l'on entend par là non pas l'utilisation d'estimations quantitatives exactes, mais un haut niveau d'abstraction, la liberté d'opérer avec des concepts liés aux catégories de non -mathématiques numériques.
      Parmi les méthodes de mathématiques qualitatives qui ont trouvé une application efficace en chimie, le rôle principal appartient aux ensembles, aux groupes, aux algèbres, aux constructions topologiques et, tout d'abord, aux graphiques - la méthode la plus générale de représentation des structures chimiques.

Prenons, par exemple, quatre points arbitrairement situés sur un plan ou dans l'espace, et relions-les par trois lignes. Quelle que soit la localisation de ces points (appelés sommets) et quelle que soit la manière dont ils sont reliés les uns aux autres par des tirets (appelés arêtes), nous n'obtiendrons que deux structures de graphe possibles, différant l'une de l'autre par la disposition mutuelle des connexions : un graphe , semblable aux lettres "P" " ou "I", et un autre graphique similaire aux lettres "T", "E" ou "U". Si au lieu de quatre points abstraits nous prenons quatre atomes de carbone, et au lieu de tirets nous prenons des liaisons chimiques entre eux, alors les deux graphiques indiqués correspondront à deux isomères possibles du butane - normal et iso-structure.
      Qu'est-ce qui a provoqué l'intérêt croissant des chimistes pour la théorie des graphes, ce langage bizarre mais très simple de points et de lignes ?
      Le graphe a la propriété remarquable de rester inchangé sous toutes déformations de la structure qui ne s'accompagnent pas d'une rupture des connexions entre ses éléments. La structure d'un graphe peut être déformée, le privant complètement de symétrie au sens habituel du terme ; cependant, le graphe aura toujours une symétrie au sens topologique, déterminée par la similitude et l'interchangeabilité des sommets d'extrémité. Compte tenu de cette symétrie cachée, on peut, par exemple, prédire le nombre d'amines isomères différentes obtenues à partir des structures du butane et de l'isobutane en remplaçant les atomes de carbone par des atomes d'azote ; les graphiques permettent d’utiliser des considérations physiques simples pour comprendre des motifs de type « propriété de structure ».
      Une autre idée quelque peu inattendue consiste à exprimer les qualités structurelles des graphiques (par exemple, le degré de leur branchement) à l'aide de nombres. Intuitivement, nous pensons que l’isobutane est plus ramifié que le butane normal ; Cela peut être exprimé quantitativement, par exemple, par le fait que dans la molécule d'isobutane, le fragment structurel du propane est répété trois fois, et dans le butane normal, il n'est répété que deux fois. Ce nombre structurel (appelé indice topologique de Wiener) est étonnamment bien corrélé aux caractéristiques des hydrocarbures saturés telles que le point d'ébullition ou le pouvoir calorifique. Récemment, une mode particulière est apparue pour l'invention de divers indices topologiques ; il en existe déjà plus d'une vingtaine ; Sa simplicité séduisante rend cette méthode pythagoricienne de plus en plus populaire*.
      L'utilisation de la théorie des graphes en chimie ne se limite pas à la structure des molécules. Dans les années trente, A. A. Balandin, l'un des prédécesseurs de la chimie mathématique moderne, a proclamé le principe de substitution isomorphe, selon lequel le même graphique contient des informations uniformes sur les propriétés des objets structurés les plus divers ; il est seulement important de définir clairement quels éléments sont sélectionnés comme sommets et quel type de relations entre eux sera exprimé par les arêtes. Ainsi, en plus des atomes et des liaisons, vous pouvez sélectionner des phases et des composants, des isomères et des réactions, des macromolécules et des interactions entre elles comme sommets et arêtes. On peut remarquer une relation topologique profonde entre la règle de phase de Gibbs, la règle stoechiométrique de Horiuchi et la classification rationnelle des composés organiques selon leur degré d'insaturation. A l'aide de graphiques, les interactions entre particules élémentaires, la fusion cristalline, la division cellulaire sont décrites avec succès... En ce sens, la théorie des graphes sert de langage visuel, presque universel, de communication interdisciplinaire.

Le développement de chaque idée scientifique passe traditionnellement par les étapes suivantes : revue d'article monographie manuel. L'inflorescence d'idées appelée chimie mathématique a déjà dépassé le stade des revues, même si elle n'a pas encore atteint le statut de discipline académique. En raison de la diversité des domaines, la principale forme de publication dans ce domaine est désormais la collection ; plusieurs de ces recueils ont été publiés en 1987-1988.
      Le premier recueil édité par R. King « Applications chimiques de la topologie et de la théorie des graphes » (M., « Mir », 1987) contient une traduction des rapports d'un symposium international avec la participation de chimistes et de mathématiciens de différents pays. Le livre donne une image complète de la palette hétéroclite d’approches apparues à l’intersection de la théorie des graphes et de la chimie. Il aborde un très large éventail de questions, depuis la structure algébrique de la chimie quantique et de la stéréochimie, les règles magiques du comptage électronique, jusqu'à la structure des polymères et la théorie des solutions. Les chimistes organiques seront sans aucun doute attirés par la nouvelle stratégie de synthèse de nœuds moléculaires de type trèfle, mise en œuvre expérimentale de l'idée d'une bande de Möbius moléculaire. Les articles de synthèse sur l'utilisation des indices topologiques déjà mentionnés ci-dessus pour évaluer et prédire une grande variété de propriétés, y compris l'activité biologique des molécules, seront particulièrement intéressants.
      La traduction de ce livre est également utile car les questions qui y sont soulevées peuvent aider à résoudre un certain nombre de problèmes controversés dans le domaine de la méthodologie des sciences chimiques. Ainsi, le rejet par certains chimistes dans les années 50 de la symbolique mathématique des formules de résonance a cédé la place dans les années 70 au déni par certains physiciens du concept même de structure chimique. Dans le cadre de la chimie mathématique, de telles contradictions peuvent être éliminées, par exemple, à l'aide d'une description combinatoire-topologique des systèmes chimiques classiques et quantiques.
      Bien que les travaux des scientifiques soviétiques ne soient pas présentés dans cette collection, il est gratifiant de constater l'intérêt accru pour les problèmes de chimie mathématique dans les sciences nationales. Un exemple est le premier atelier « Graphes moléculaires dans la recherche chimique » (Odessa, 1987), qui a réuni une centaine de spécialistes de tout le pays. Par rapport à la recherche étrangère, le travail national se distingue par un caractère appliqué plus prononcé, axé sur la résolution de problèmes de synthèse informatique et la création de diverses banques de données. Malgré le niveau élevé des rapports, la réunion a constaté un retard inacceptable dans la formation des spécialistes en chimie mathématique. Ce n'est que dans les universités de Moscou et de Novossibirsk que des cours occasionnels sont dispensés sur des questions individuelles. Dans le même temps, il est temps de se poser sérieusement la question : quel type de mathématiques les étudiants en chimie doivent-ils étudier ? En effet, même dans les programmes universitaires de mathématiques des départements de chimie, des sections telles que la théorie des groupes, les méthodes combinatoires, la théorie des graphes et la topologie ne sont pratiquement pas représentées ; à leur tour, les mathématiciens universitaires n’étudient pas du tout la chimie. Outre le problème de la formation, la question de la communication scientifique est urgente : il faut une revue pan-syndicale sur la chimie mathématique, publiée au moins une fois par an. La revue "MATCH" (Mathematical Chemistry) est publiée à l'étranger depuis de nombreuses années et nos publications sont dispersées dans des collections et dans une grande variété de périodiques.

Jusqu'à récemment, le lecteur soviétique ne pouvait se familiariser avec la chimie mathématique qu'à partir du livre de V. I. Sokolov « Introduction à la stéréochimie théorique » (M. : Nauka, 1979) et de la brochure de I. S. Dmitriev « Molécules sans liaisons chimiques » (L. : Khimiya , 1977). Comblant en partie cette lacune, la branche sibérienne de la maison d'édition Nauka a publié l'année dernière le livre «Application of Graph Theory in Chemistry» (édité par N. S. Zefirov, S. I. Kuchanov). Le livre se compose de trois sections, la première étant consacrée à l'utilisation de la théorie des graphes en chimie structurale ; la deuxième partie examine les graphiques de réaction ; le troisième montre comment les graphiques peuvent être utilisés pour faciliter la résolution de nombreux problèmes traditionnels en physique chimique des polymères. Bien entendu, ce livre n'est pas encore un manuel (une partie importante des idées discutées sont des résultats originaux des auteurs) ; néanmoins, la première partie du recueil peut être pleinement recommandée pour une première connaissance du sujet.
      Un autre recueil d'actes du séminaire de la Faculté de chimie de l'Université d'État de Moscou « Principes de symétrie et de systématicité en chimie » (édité par N. F. Stepanov) a été publié en 1987. Le sujet principal de la collection concerne les méthodes de théorie des groupes, de théorie des graphes et de théorie des systèmes en chimie. L’éventail des questions abordées n’est pas conventionnel et les réponses y sont encore moins standard. Le lecteur apprendra, par exemple, les raisons de la tridimensionnalité de l'espace, le mécanisme possible de l'émergence de la dissymétrie dans la nature vivante, les principes de conception du système périodique des molécules, les plans de symétrie des substances chimiques. réactions, sur la description de formes moléculaires sans utiliser de paramètres géométriques, et bien plus encore. Malheureusement, le livre ne peut être trouvé que dans les bibliothèques scientifiques, car il n'a pas été mis en vente générale.
      Puisque nous parlons des principes de symétrie et de systématicité en science, il est impossible de ne pas mentionner un autre livre inhabituel « System. Harmony » (M. : Mysl, 1988). Ce livre est consacré à l'une des variantes de la théorie dite générale des systèmes (GTS), proposée et développée par Yu.A Urmantsev et qui a aujourd'hui trouvé le plus grand nombre de partisans parmi les scientifiques de diverses spécialités, tant naturelles que naturelles. sciences humaines. Les principes initiaux de l'OTS d'Urmantsev sont les concepts de système et de chaos, de polymorphisme et d'isomorphisme, de symétrie et d'asymétrie, ainsi que d'harmonie et de disharmonie.
      Il semble que la théorie d’Urmantsev devrait attirer la plus grande attention des chimistes, ne serait-ce que parce qu’elle élève traditionnellement les concepts chimiques de composition, d’isomérie et de dissymétrie au rang de concepts à l’échelle du système. Dans le livre, vous pouvez trouver des analogues de symétrie frappants, par exemple entre les isomères des feuilles et les structures moléculaires**. Bien entendu, lors de la lecture du livre, un certain niveau d'impartialité professionnelle est nécessaire à certains endroits - par exemple lorsqu'il s'agit de parallèles chimico-musicaux ou de la justification d'un système d'éléments symétrique en miroir. Néanmoins, le livre est imprégné de l’idée centrale de trouver un langage universel exprimant l’unité de l’univers, semblable peut-être au langage castalien du « jeu de perles » d’Hermann Hess.
Parlant des structures mathématiques de la chimie moderne, on ne peut ignorer le merveilleux livre d'A.F. Bochkov et V.A. Smith « Organic Synthesis » (M. : Nauka, 1987). Bien que ses auteurs soient des chimistes « purs », un certain nombre d’idées évoquées dans l’ouvrage sont très proches des problèmes évoqués ci-dessus. Sans nous attarder sur la forme brillante de présentation et la profondeur du contenu de ce livre, après une lecture dont on souhaite aborder la synthèse organique, nous soulignerons seulement deux points. Tout d’abord, en considérant la chimie organique au prisme de sa contribution à la science et à la culture mondiale, les auteurs établissent un parallèle évident entre la chimie et les mathématiques en tant que sciences universelles qui tirent de l’intérieur d’elles-mêmes les objets et les problèmes de leurs recherches. En d’autres termes, au statut traditionnel des mathématiques comme reine et servante de la chimie, on peut ajouter l’hypostase particulière de sa sœur. Deuxièmement, convainquant le lecteur que la synthèse organique est une science exacte, les auteurs font appel à la précision et à la rigueur à la fois de la chimie structurale elle-même et à la perfection de la logique des idées chimiques.
      Si les expérimentateurs le disent, y a-t-il un doute sur le fait que l'heure de la chimie mathématique est venue ?

________________________
  * Voir « Chimie et Vie », 1988, n° 7, p.
** Voir "Chimie et Vie", 1989, n°2.

Créer des complexes de programmes automatisés. synthèse optimale. une production hautement fiable (y compris économe en ressources) ainsi que les principes des arts. intelligence, ils utilisent des graphiques sémantiques orientés, ou sémantiques, des options de solution CTS. Ces graphiques, qui dans un cas particulier sont des arbres, décrivent les procédures permettant de générer un ensemble de schémas CTS alternatifs rationnels (par exemple, 14 possibles lors de la séparation d'un mélange à cinq composants de produits cibles par rectification) et les procédures de sélection ordonnée parmi eux de un schéma optimal selon un certain critère d'efficacité du système (voir Optimisation).

La théorie des graphes est également utilisée pour développer des algorithmes d'optimisation des plannings de fonctionnement d'équipements flexibles multi-produits, des algorithmes d'optimisation. placement des équipements et routage des systèmes de pipelines, algorithmes optimaux. gestion de la technologie chimique processus et production, lors de la planification en réseau de leur travail, etc.

Lit.. Zykov A. A., Théorie des graphes finis, [in. 1], Novossibirsk, 1969 ; Yatsimirsky K. B., Application de la théorie des graphes en chimie, Kiev, 1973 ; Kafarov V.V., Perov V.L., Meshalkin V.P., Principes de modélisation mathématique des systèmes technologiques chimiques, M., 1974 ; Christofides N., Théorie des graphes. Approche algorithmique, trans. de l'anglais, M., 1978 ; Kafarov V.V., Perov V.L., Meshalkin V.P., Fondements mathématiques de la conception assistée par ordinateur de la production chimique, M., 1979 ; Applications chimiques de la topologie et de la théorie des graphes, éd. R. King, trad. de l'anglais, M., 1987 ; Applications chimiques de la théorie des graphes, Balaban A.T. (Ed.), N.Y.-L., 1976. V.V. Kafarov, V.P. Meshalkin.
===
Espagnol littérature pour l'article "THÉORIE DES GRAPHES": pas de données

Page "THÉORIE DES GRAPHES" préparé à partir de matériaux