bwconsistency/Administration/Dossier demande CIFRE ANRT/sujet-cifre.tex
2025-05-16 13:27:55 +02:00

437 lines
22 KiB
TeX
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

\documentclass[11pt]{article}
\usepackage{graphicx}
\usepackage{paralist} %% needed for compact lists
\usepackage[normalem]{ulem} %% needed by strike
\usepackage[urlcolor=blue,colorlinks=true,breaklinks]{hyperref}
\usepackage[utf8x]{inputenc} %% char encoding
\usepackage{framed} %% frame multipages
% \usepackage{fullpage}
\usepackage{a4wide}
\usepackage{mathpazo} %% math & rm
\linespread{1.05} %% Palatino needs more leading (space between lines)
\usepackage[scaled]{helvet} %% ss
\usepackage{courier} %% tt
\normalfont
\usepackage[T1]{fontenc}
\usepackage[francais]{babel} %% en francais
\usepackage{xspace} %% gestion des espaces après une macro
\usepackage{listings}
\lstset{breaklines}
\lstset{language=java}
\lstset{escapechar=§}
\usepackage{xcolor}
\usepackage{comment} %%%% comment env
%%%%%%%%%%%%%%
%% fancy et brouillon
%% Date en haut de page
%% A commenter pour la version finale
\usepackage[margin=2.5cm]{geometry}
\usepackage{fancyhdr}
%% Header and footer
\fancyhf{} %%clear head and footer
\fancyhead[C]{\thepage} %%draft
\renewcommand{\headrulewidth}{0pt} \renewcommand{\footrulewidth}{2pt}
\fancyfoot[C]{\textsc{SUJETCOURT}}
\fancypagestyle{premiere}{%% première page
\fancyhf{} %%clear head and footer
\fancyfoot[L]{\textbf{LIF}}
\renewcommand{\headrulewidth}{0pt} \renewcommand{\footrulewidth}{2pt}
\fancyfoot[C]{\textsc{SUJETCOURT}}
\fancyhead[C]{}%%\includegraphics[scale=0.25]{logo-lif.png}} %%UFR
}
\fancypagestyle{notete}{%% première page
\fancyhf{} %%clear head and footer
\renewcommand{\headrulewidth}{0pt} \renewcommand{\footrulewidth}{2pt}
\fancyfoot[C]{\textsc{Sujet}}
}
\newcommand{\myversion}{\textit{version du \today{}}}
\pagestyle{plain}
\title{Cohérences faibles pour le cloud zero-trust}
\author{SUJET DE RECHERCHE}
\begin{document}
\date{Emmanuel Godard (LIS) -- Corentin Travers (LIS)\\emmanuel.godard@lis-lab.fr et corentin.travers@lis-lab.fr}
\maketitle
\textbf{Mots-clefs:} Cloud, Sécurité par conception, Structures et algorithmes distribués, Cohérences faibles, Systèmes byzantins
\section*{Résumé}
Les applications collaboratives en temps réel sont de plus en plus utilisées
dans le cadre de la mise en place de systèmes de travail à distance. Ces
applications sont souvent basées sur des architectures client-serveur
centralisées, ce qui pose des problèmes de sécurité et de confidentialité. Les
données sont stockées sur un serveur centralisé, ce qui implique que les
utilisateurs doivent faire confiance à un tiers pour la gestion de leurs
données. De plus, ces architectures sont souvent vulnérables aux attaques par
déni de service, et ne permettent pas de garantir la confidentialité des
données.
Pour répondre à ces problématiques, nous proposons d'explorer des
solutions d'échange de l'information basées sur des architectures sans
tiers de confiances à travers des approches dites zero-trust et/ou
pair à pair. Ces solutions nous permettraient de proposer de solutions
à haut niveau de sécurité tout en garantissant une certaine résilience
du système. Pour conserver des performances fortes notamment en haute
disponibilité, les cohérences faibles sont fréquemment utilisées.
Dans ce contexte, nous proposons d'étudier les propriétés de cohérences faibles
appliquée aux problématiques liées au cloud. Dans un premier temps sera réalisé
un état de l'art sur les solutions byzantines sans primitives cryptographiques,
ainsi que sur les différentes implémentations existantes (WP1). Une deuxième
étape consistera à proposer des solutions plus efficaces mais utilisant des
primitives cryptographiques (WP2). Enfin, une dernière étape consistera en la
production d'une preuve de concept de solution de stockage clef/valeurs
utilisant les algorithmes retenus aux étapes précédentes (WP3).
\pagebreak
\section*{Problématique}
Depuis les travaux pionniers des années 80, par Lamport
\cite{LamportInterprocess1986} et Misra \cite{MisraAxioms1986} notamment, la
gestion de la réplication est au cœur des développements du numérique
en terme de haute disponibilité. L'une des problématiques
fondamentales est d'offrir aux développeurs d'applications une
abstraction de la mémoire répliquée qui soit à la fois simple à
utiliser et permette de mobiliser de manière souple et résistante
aux défaillances l'intégralité des ressources distribuées.
Cette voie de recherche a produit la notion de \textit{cohérence des données}
dont les nombreuses déclinaisons permette de s'adapter aux meilleurs
compromis d'usage et spécificités de chaque application.
La tendance actuelle autour de la mise en Cloud des applications
informatiques implique des modifications importantes dans les usages
et les modes de développement des nouvelles applications. Dans le cadre de nouvelles facilités d'usage, où la maintenance de l'infrastructure est déléguée à un prestataire, cela a conduit à une centralisation des
ressources. Cela ré-introduit des problématiques classiques en termes de
sécurité : nécessité de confiance/souveraineté ou bien
\textit{point central de défaillance} (SPOF).
De nouvelles approches dites \textit{sans-confiance} (zero-trust) ont donc
été proposées pour continuer à utiliser ces ressources cloud sans dépendre d'un prestataire particulier. Elles nécessitent à la fois des architectures multi-fournisseurs et des approches cryptographiques avancées.
\medskip
Du point de vue des programmeurs, il est souvent avantageux de
considérer de telles applications sur le nuage comme un seul système
centralisé. Cela nécessite que les structures de données utilisées
aient une propriété dite de \textit{cohérence forte}.
En conditions réelles, les serveurs peuvent avoir à supporter des
conditions de fonctionnement très difficiles. Il est bien connu, à la
fois des théoriciens et des praticiens, par le théorème CAP (Consistency, Availability, Partition tolerance) que des
compromis de fonctionnement sont souvent nécessaires. En particulier,
si c'est la cohérence forte qui est recherchée, le temps de calcul
est proportionnel à la latence de \textbf{tout} le réseau. Ce qui diminue en
pratique la disponibilité.
Si l'on se réfère au théorème CAP, en appliquant la cohérence forte il
est impossible de mettre en place un système hautement résilient, tout
en fournissant une application hautement disponible. Ces deux points
pouvant néanmoins se retrouver être essentiels dans la réalisation
dune application collaborative.
Lapproche pair-à-pair implique en effet une grande résistance du système
face à la panne. Les répliques sont emmenées à se déconnecter les uns des
autres et à avoir des différences de latences importantes et inégales.
La non-maitrise du poste et de lenvironnement dexécution de lapplication
nous pousse à imaginer des systèmes pouvant résister aux pires situations
possibles.
Dans le même temps, la nature de lapplication recherchée, qui est la
collaboration en temps réel, est liée à la question de la
haute disponibilité. Le but étant de permettre à des répliques différentes
daccéder à la même donnée partagée pour un travail en temps réel. Il ne
serait donc pas acceptable de proposer des temps de latences trop
conséquents entre deux modifications.
Etant donnée limpossibilité de satisfaire ces deux aspects nous nous
tournons vers létude des cohérences faibles, et notamment de la convergence.
On peut ainsi définir comme convergent les systèmes respectant la propriété suivante :
Si les répliques arrêtent de proposer des modifications, alors ces mêmes répliques doivent éventuellement atteindre un état cohérent.
La convergence (ou Eventual Consistency) est particulièrement étudiée. Ainsi
un certains nombres de structures de données distribuées proposant de respecter la convergence ont
vu le jour. Néanmoins à elles seules, celles-ci ne permettent pas de résoudre notre
problématique. En effet cette propriété n'offre pas de garantie sur les comportements durant
lexécution, là exactement où lincohérence au sein du système est permise
par la convergence. Or il ne suffit pas quun document converge à terme pour
en faire une application dédition collaborative satisfaisante. Mais il faut aussi
proposer des mécanismes pour résoudre les conflits, qui sont inévitables
dans l'approche collaborative. Cette résolution doit être réalisée de la manière la
plus optimale pour maximiser la préservation du sens donné à chaque modification
par la réplique qui la émise.
Ces questions ont bien entendu été très étudiées et les différentes solutions
proposées particulièrement adaptées dans notre contexte sont les
\textit{types des données répliqués} (ou Replicated Data Type).
Il en existe deux classes, les types de
données répliquées commutatives (CmRDT), dont les opérations donnent le
même résultat, peu importe leurs ordres dexécutions locales.
Et les structures de données convergentes (CvRDT), par exemple un système où
la donnée viserait à croitre continuellement convergeant ainsi vers une
structure maximale. Ces deux classes sont regroupées sous la dénomination
de type de données sans conflit (CRDT) et sont en réalité équivalentes lune
à lautre \cite{ShapiroConflictFree2011}.
\medskip
En outre, pour proposer des solutions véritablement sécurisées dans un
contexte zéro-trust, les conditions de fonctionnement les plus
difficiles à considérer sont lorsque des serveurs ou des clients
participants ont été compromis et ne respectent pas strictement le
protocole. Dans la littérature, cela s'appelle un fonctionnement
byzantin.
Etant données ces contraintes difficiles de disponibilité et de sécurité,
assurer une propriété
de cohérence forte peut être très coûteux en calcul et en temps. Les
exigences applicatives ne sont parfois pas compatibles avec de telles
conditions de fonctionnement. On peut alors considérer des données
avec des propriétés dites de \textit{cohérences faibles}.
\section*{État de l'art}
Le paysage des propriétés de \textit{cohérences faibles} est relativement
complexe. On peut distinguer trois grandes familles de cohérences
faibles \cite{Raynal18}, \cite{MPBook}:
\begin{compactitem}
\item la sérialisabilité
\item la cohérence causale
\item la cohérence éventuellement forte
\end{compactitem}
Si la cohérence éventuellement forte est en général recherchée pour
les applications collaboratives, elle est particulièrement
coûteuse. La sérialisabilité est plus simple à implémenter mais
produit parfois des transactions qui ne terminent pas. Ces situations
d'erreur doivent alors être gérées par l'application.
La cohérence
causale maintient l'ordre causal perçu par chaque processus et permet
en général d'implémenter des structures de données de plus haut niveau
de manière efficace.
Le lecteur pourra se référer à la cartographie assez exhaustive de
M. Perrin \cite{MPBook}.
\subsection*{Résultats Algorithmiques}
Les premiers travaux sur des outils collaboratifs sécurisés dans un
contexte de haute disponibilité
datent de 2009, cependant les recherches plus
systématiques concernant la sécurité des cohérences dites faibles sont
en fait très récentes.
En 2009, Sing \textit{et al.} propose le système Zeno qui est le premier
à proposer un algorithme byzantin qui privilégie la disponibilité sur
la cohérence (forte). Il offre une robustesse byzantine à la
cohérence éventuellement forte \cite{SinghZeno2009}. L'algorithme montre
de manière expérimentale de meilleures performances de disponibilité
que les algorithmes byzantins classiques.
Il existe actuellement essentiellement des études et solutions
partielles pour la cohérence causale \cite{TsengDistributed2019} et
\cite{VanDerLindePractical2020}. Tseng \textit{et al.} présentent des bornes
exactes de calculabilité dans un cadre byzantin d'un côté et donnent
un algorithme dont les performances sont comparées avec ceux de la
plateforme Google Compute. Van Der Linde \textit{et al.} présentent un
système pair-à-pair résistant aux attaques byzantines qui offre des
garanties de cohérence causale. Leur évaluation considère que malgré
une architecture pair-à-pair, les performances, notamment en termes de
latence sont très bonnes en comparaison avec une architecture
client-serveur classique.
En complément de ces algorithmes, Misra et Kshemkalyani ont montré
dans \cite{MisraByzantine2021} que dans un contexte asynchrone, il n'est
pas possible de proposer de la consistance causale même avec un seul
participant byzantin.
L'une des particularités de \cite{VanDerLindePractical2020} est de proposer
également une réflexion sur les défaillances byzantines dans un
contexte de cohérences faibles. Un système pair-à-pair tel que celui
de \cite{MisraByzantine2021} justifie de proposer de nouvelles attaques où
un participant exploite les informations des couches basses de
réplication pour créer des attaques au niveau applicatif.
L'application de critères de cohérences faibles ne suffit pas à
satisfaire le cadre de notre problématique. Le contexte du cloud pose
notamment de grande questions en termes de centralisation et de
gouvernance des données, avec un marché dominé par quelques acteurs
majeurs auxquels les utilisateurs doivent faire confiance de manière
aveugle. Posant ainsi de grande question sur la confidentialité et la
souveraineté de leurs informations.
C'est dans ce contexte qu'intégrer la notion d'un cloud zero-trust est
essentiel en ancrant nos réflexions dans une approche
pertinente d'un point de vue industriel et réglementaire. Le zero-trust comme défini
par le NIST dans la SP 800-207 \cite{RoseZero2020} est un modèle de sécurité qui ne fait
confiance à aucun tiers, et qui ne fait aucune hypothèse sur la
sécurité du réseau. Il permet ainsi de se préserver des comportements
malveillants émis par les intermédiaires diminuant la surface
d'attaque et limitant les comportements byzantins aux seuls clients
qui eux ont accès aux données.
Evidement ce dernier point est aussi à considérer. C'est pourquoi une
approche de sécurité centrée sur la donnée en plus des communications
peut aussi être envisagé en adoptant des approches dites "Data Centric".
C'est-à-dire de considérer la donnée elle-même comme un acteur vivant du
système en lui attribuant des processus de contrôle d'accès et de suivie
\cite{BayukDatacentric2009}. Ces questions représentent des enjeux grandissants et
sont considérés par les acteurs étatique et inter-étatique à l'image de l'OTAN
qui statut sur ces problématiques à travers les STANAG 4774 et 4778. Ces
questions sont largement étudiées depuis les années 2010 avec des travaux comme
\cite{GoyalAttributebased2006, MullerDistributed2009} qui définisse des solutions
pour mettre en place du chiffrement par attribut. Consistant à émettre des clés
de chiffrements dépendantes de droits, et donc de permettre de définir des
politiques de sécurité. Des travaux comme \cite{YanFlexible2017} propose des
solutions plus adaptées au cloud en se basant sur des architectures plus
flexibles et avec une plus grande granularité dans la définition des droits.
Néanmoins sur les aspects du zero-trust et de la sécurité centrée sur
la donnée, il n'existe pas encore de travaux académiques concernant
une formalisation consensuelle de ces notions. Et ces termes sont
soumis à de nombreuses interprétations. Il reste donc à spécifier
formellement ces différents termes pour comprendre quelles propriétés
sont à satisfaire pour réaliser de la cohérence faible dans un
contexte zero-trust.
\subsection*{Implémentations Existantes}
Des projets actuels tentent d'implémenter des protocoles de cohérences faibles pour la mise en place d'applications collaboratives en temps réel. Parmi ces projets on peut citer yjs \cite{Yjs2023} qui implémente le protocole YATA \cite{NicolaescuRealTime2016} et qui permet d'assurer une convergence forte (ou SEC d'après le référentiel de Perrin) à travers un système de type CRDT.
D'autres projets plus anciens tel qu'Etherpad utilise des solutions plus simples à base de résolution de conflit continue, assurant aussi une convergence forte mais réalisant des opérations algorithmiques plus complexes en termes de mémoire et de temps de calcul vis-à-vis des CRDTs \cite{AppJetEtherpad2011}.
\section*{Objectifs}
Les objectifs de cette thèse sont à la fois d'étudier les trois types
de cohérence faible en situation byzantine et de définir des
algorithmes byzantins efficaces pour pouvoir les implémenter. Puisque
la cohérence causale est déjà bien étudiée, ce sont les deux autres
cohérences qui seront les principaux axes de recherche de cette thèse.
La première étape (WP1) consistera à étudier des solutions byzantines
sans primitives cryptographiques, ou avec des primitives
raisonnablement coûteuses, c'est-à-dire notamment sans calcul
homomorphe. Une étude des implémentations existantes sera réalisée
pour notamment déterminer les garanties offertes par ces solutions
dans le vocabulaire des cohérences faibles.
La deuxième étape (WP2) consistera à produire des solutions plus efficaces
mais qui utilisent des primitives cryptographiques nécessitant des
primitives de partage de secret avancées et/ou de calcul homomorphe.
Une dernière étape (WP3) consistera en la production d'une preuve de concept
de solution de stockage \textit{clef/valeurs} utilisant les algorithmes
retenus aux étapes précédentes.
\section*{Méthodologie et Planning}
Une revue précise des modèles de calcul distribué pour lesquels des
solutions (principalement de consistance causale) ont été proposées
sera établie dans le but de déterminer l'ensemble des hypothèses,
théoriques et pratiques, de validité de ces solutions. En parallèle de
cetté étude, en relation avec l'entreprise Scille, une liste
d'attaques sur les architectures pair-à-pairs à cohérence faible sera
établie. L'accent sera mis sur la production de connaissances
nouvelles (nouvelles solutions par rapport à l'état de l'art mais
également nouvelles attaques).
Les algorithmes seront tout d'abord validé de manière formelle
avant de voir une preuve de concept développée.
Le WP1 se déroulera en 2024, le WP2 en 2025, et le WP3 en ZO26.
\section*{Modalités de Suivi et d'Échange}
Le doctorant participe aux réunions hebdomadaires de suivi de
l'entreprise Scille. Les partenaires se rencontreront tous les trois
mois pour un point d'avancée sur les travaux.
Il participera également aux réunions physiques de
l'entreprise tous les 6 mois.
\section*{Moyens Matériels}
Le doctorant sera hébergé au Laboratoire d'Informatique et des
Systèmes. Il bénéficiera de l'environnement scientifique et technique
d'un laboratoire UMR CNRS de 800 personnes, dont environ 400 personnels permanents .
Du côté de l'entreprise Scille, qui fonctionne en \textit{full remote}, le
doctorant aura accès à un banc d'essai cloud hébergé par
l'entreprise.
\section*{Retombées Attendues}
Du côté du laboratoire LIS, les retombées attendues sont les publications scientifiques suivantes :
\begin{compactitem}
\item état de l'art et synthèse concernant les consistances faibles byzantines
\item propositions et preuves de nouveaux algorithmes dans le contexte zéro-trust
\end{compactitem}
Du côté de l'entreprise Scille, il est attendu une mini-maquette de
synchronisation et collaboration cloud, une preuve de concept des
algorithmes sus-cités ainsi que du conseil et de l'expertise dans le
domaine du "développement scientifique" des produits développés par Scille, notamment \texttt{parsec}.
\section*{Équipe}
\subsection*{Équipe Algorithmique Distribuée (DALGO)}
L'équipe Algorithmique Distribuée (responsable Arnaud Labourel) fait
partie du Laboratoire d'Informatique et Systèmes (LIS CNRS UMR 7020).
du Laboratoire d'Informatique et Systèmes (LIS CNRS UMR 7020). C'est
une équipe de recherche reconnue au plus haut niveau international,
avec 8 membres permanents dont les centres d'intérêt vont des
algorithmes distribués fiables, de la confidentialité dans les
systèmes distribués aux réseaux de communication, ainsi qu'aux
algorithmes de graphes, aux agents mobiles et à l'IoT,
\subsection*{Encadrants}
\textbf{Emmanuel Godard} est professeur à l'Université Aix-Marseille. Ses
intérêts de recherche portent principalement sur la compréhension et
la maximisation de la décentralisation (en un sens large) dans les
systèmes distribués. Il est expert en algorithmique et calculabilité distribuées.
\textbf{Corentin Travers} est Maître de Conférences à l'Université
Aix-Marseille. Ses intérêts de recherche portent sur les
algorithmes distributés robustes et efficaces pour les systèmes à
mémoire partagée ou les réseaux distribués. Il est expert en algorithmique et complexité distribuées.
\textbf{Marcos Medrano} est ingénieur R\&D chez Scille. Diplômé d'un master de recherche en sciences
de l'informatique et mathématique appliqué. Il est en charge de la stratégie de développement
du produit Parsec et réalise le lien entre les ingénieurs et les intervenants académiques.
\subsection*{Choix du Candidat}
L'équipe DALGO est partie prenante du Master "Fiabilité et Sécurité
Informatique" de l'Université Aix-Marseille. Ce parcours de master est
labellisé \textit{SecNumEdu} par l'ANSSI. À l'automne 2022, le sujet
proposé avec l'entreprise Scille a été présenté à l'ensemble des
étudiants de master. Suite à cet appel à candidature, M. Amaury Joly a
été retenu pour un stage de recherche préliminaire de 6 mois sur le
thème des consistances faibles au laboratoire LIS.
Les notes de M. Amaury Joly sont très bonnes, il obtient une mention
bien au master. Il présente en outre un très bon double profil à la
fois théorique et technique, sa motivation pour les activités de
recherche en lien avec la sécurité du Cloud est très forte, il est le
candidat parfait pour un tel sujet de recherche.
{\footnotesize
\nocite{*}
\bibliography{sujet-cifre.bib}
\bibliographystyle{alpha}
}
% LaTeX2e code generated by txt2tags 3.4 (http://txt2tags.org)
% cmdline: txt2tags -t tex sujet-cifre.t2t
\end{document}