CPC 021

De C'est pas con !
Aller à : navigation, rechercher


CPC 021 - Syllodonnées - Liaisons des données liées !




Une question de bon sens.

  • on explique qu'il y a les données
  • et que les méta-données (méta : plus loin) sont les données sur les données.

Et pourtant l'on ne se préoccupe pas des liaisons structurelles qu'elles ont entre elles, à un moment où nous comprenons que la complexité est que tout est maillé. Et où l'on nous rebat les oreilles avec les données liées. Liées entre elles, d'accord, mais comment ? Par quoi ?

L'on sait plein de choses sur ces hyper-, super-, supra- et inter-liens.

Mais pour travailler valablement sur quelque chose, il faut qu'il ait un nom, sinon de quoi parle-t-on ?


J'appelle donc "syllodonnées" les données entre les données (liées entre elles).


Syllodonnée a la même racine que syndicat, synergie, symbiose, etc.

Et j'ai comme l'impression que les syllodonnées sont encore plus intrastructutrellement importantes que les métadonnées dont l'émergence de la considération a été si grande au cours des 20 dernières années.


Pour appuyer cela, considérons-les dans le cadre du syllogisme : ce sont les flux de syllodonnées à partir des prémisses qui vont concourir pour devenir le tronc commun du concept de la conclusion Pour s'y retrouver nous appellerons ces flux des "syllogies".

Là où cela devient intéressant, c'est en pensée complexe (lorsque l'on considère des tas de choses en même temps) ! Nous allons avoir un maillage des réflexions de ces syllogies ! "Cela marche avec ça mais pas tout à fait avec ceci, mais en y pensant, si on tient compte de cet autre, etc. etc." Pour s'y retrouver, il faut un mot simple pour ce processus qui a l'air au coeur de l'émergence complexe : tout plein de réflexions mentales ensemble.


Nous l'appellerons "conflexion".

Au passage, ce sont les platoniciens, fils de Socrate, qui ont limité les syllogismes à deux prémisses (majeure et primeure, donnant la logique du tiers exclu). L'inventeur du concept (Aristote) n'avait pas mis de limite au nombre des prémisses.


Encyclopédie Universalis : Le syllogisme est une forme de raisonnement définie pour la première fois par Aristote : « Le syllogisme est un discours dans lequel, certaines choses étant posées, quelque chose d'autre que ces données en découle nécessairement par le seul fait de ces données »(Topiques, I, 1, 100 a 25 et Premiers Analytiques, I, 1, 24 b 18-20). Un syllogisme comporte donc un point de départ – les prémisses – et une conclusion. Celle-ci doit être nouvelle par rapport aux prémisses (ce qui assure la fécondité du syllogisme), mais elle doit, d'autre part, découler nécessairement de ces prémisses et d'elles seules (ce qui assure la rigueur de ce type de raisonnement).


La logique dialectique à deux prémisses est donc "2-p".

Ce dont nous parlons c'est d'une agora de prémisses, donc "n-p". On l'appelle donc "agorique".


Eh! qu'est-ce alors que la "1-p" ? Cela existe ?

Tu parles ! c'est la cybernétique, découverte par Norbet Wienber. Il n'y a qu'une prémisse, l'action, sur la "boite noire". Elle donne la réaction, en raison de l'énaction interne, identifiée par Varella. L'énaction c'est le traitement logiciel dans une boîte noire informatique (machine de Turring). C'est pour cela que l'on parle de cyberespace, l'endroit où les choses se passent comme elles sont prévues (le monde à "1-p").


Ben, didons ! Et il y a longtemps qu'on connait ?

Depuis le 21 janvier 1889, quand Henri Poincaré a reçu le premier Oskar pour cela ! Oskar de Norvège avait mis à prix, pour son anniversaire, la démonstration du problème des "n-corps". Chaque prémisse était une planète du système solaire dont il fallait conclure l'orbite stable selon les lois de Newton.

Poincaré a montré qu'avec le Soleil et la Terre cela marchait bien, mais que si on commençait à rajouter la Lune, sans parlers des autres planètes, ça ne le faisait plus ! Cela l'a ensuite conduit à la théorie du Chaos, tandis qu'à la suite de celte identification de la nature "complexe" (on maille les tiers, on ne les exclut plus) de la réalité :

  • Clemenceau (1898) identifiait les "intellectuels" : les gens qui coupent les "n-p" en quatre,
  • Plank (1900) identifiait la physique quantique
  • Einstein (1905) la relativité
  • Goëdel (1931) l'incertitude mathématique (les mathématiques à "2-p" ont des difficultés avec les "n-p")

etc.

  • Morin (1982) introduit le concept raisonné de pensée complexe.

etc.


L'agorique est donc la logique à "n-p". Le plus grand système agorique que nous ayons construit ensemble est l'internet. Mais il pèche pas son architecture (TCP) qui reste à "2-p". Pour être agorique, il lui faut supporter la conflexion et pour cela être réentrant (on réfléchit un datagramme reçu vers une autre adresse IP, après l'avoir traité comme il fallait). Cela s'appelle .... l'intelligence.


Au passage il est intéressant de considérer l'experience des discours des premiers niveaux de prémisses :

le "0-p" 
c'est le sophisme. Peu importent les prémisses, ce qui compte est la persuasion de la conclusion voulue.
le "1-p" 
c'est la science, le savoir, la sagesse. La seule prémisse est la vérité.
le "2-p" 
c'est toute la logique et la philosophie qui tente d'amener l'homme à trouver la vérité.
le "3-p" 
c'est la justice qui met en jeu les deux parties face au juge.

C'est pourquoi il y a tant de juristes : ce sont les gens qui à travers le "3-p" de la "prétorique" nous font progresser vers le "n-p" "agorique" de la réalité.

Car, en fait, un "prétoricien" a bien des prémisses à fouetter en tenant compte des lois, de la jurisprudence, des témoins, des humeurs des juges, de leurs propres clients, de la déontologie, et parfois des politiques, sans compter leur propre conptable ...




PS. Le syllogisme est la progression des discours humains, le logos. La complexité le rend trop difficile pour la science de l'esprit humain, l'epsiteme. Pour la traiter, nous avons besoin du savoir-faire (techne) des autres.


C'est pourquoi le 21 janvier 1889 est un point de non-retour pour la pensée humaine, une "singularité". La singularité technologique, qui fait pendant à la singularité philosophique de Thalès voulant comprendre le "deus ex negra machina" des choses. Ce jour-là nous avons admis la complexité de l'univers, et qu'elle dépassait nos capacités individuelles à le décrire sans l'aide (et encore ?) de la conjugaison de nos savoirs, que nous avons confiés au truchement de l'ordinateur préparé par Pascal, Leibnitz, Vaucanson, Jacquard, Babbage, etc. . Puis nous les avons mis en réseau opérationnel et avons découvert l'agorique pratique (Hardy 1970), et Louis Pouzin a apporté la dernière touche actuelle : le catenet - le réseau des réseaux (1973/74).

En 1978, Vint Cerf, a documenté le projet prototype pour interneter le "catenet de l'ARPANET" tandis que les monopoles publics construisaient le catenet des services internationaux à commutation de paquets (IPSS).

En 1984, les deux grands catenets étaient "catenetés" par leur interconnexion et l'engagement d'un plan d'adressage commun (X.121).

En 1986, la NSA en bloquait le développement d'extension des services en réseau, car TCP ne supportait pas la réentrance intelligente, et ses utilisateurs s'en trouvaient en position d'insécurité face aux utilisateurs des services publics du monde entier. A partir de cette date, la stratégie politique américaine ite du "status-quo" a prévalu par le déploiement économique de la technologie de l'IETF (Internet Engineering Tqsk Force, créée en 1986 pour cela) à tout le catenet mondial.

En 2012, l'approche de la NSA améircaine était mise en minorité par les intérêts des autres agences de surveillances publiques, lors du renouvellement du Traité Mondial des Telecommunications. Une grande notoriété était donnée à l'insécurité du réseau par Edward Snowden. Ceci a permis d'engager une nouvelle stratégie américaine qui tend à faire passer mondialement le système technique internet sous contrôle législatif du Congrès via la FCC, commission fédérale des communications. Ceci est accompagné d'un effort de développement technologique concerté vers une sécurité gouvernementalement et économiquement maitrisée, dans le cadre de la "communauté globale" animée par l'ICANN, techniquement conseillée par l'IETF. Il existe un embryon de "communauté globale pour la libre expérimentation".

En 2016, l'ICANN a présenté le plan consensuel de la consolidation de sa communauté globale au NTIA qui l'a accepté au nom du Goouvernement américain qui a peu à peu engagé son application.


Le principe des relations entre "communautés globales" est une coopétion documentée par la "RFC 6852", qui reprends le texte d'un paradigme conjointement signé entre l'AIEE, l'IAB, l'IETF, l'ISOC et le W3C.

Un point de droit ... incomplet : il ne propose pas de solution interstructurelle à la résolution des incompatibilités protocolaires : dans le catenet mondial des réseaux communautaires, vous pouvez rejoindre n'importe quelle communauté pourvu que cela soit l'américaine ...


Depuis quelques décénies nous l'avons bien compris : cela s'est traduit par un retour au "1-p", sous le nom de "la pensée unique" qui doit plus ... au dollar qu'à la vérité.