L’indice radial d’une 1-forme sur un ensemble singulier est une généralisation de l’indice de Poincaré-Hopf. On considère différentes classes d’ensembles semi-analytiques fermés dans $\mathbb{R}^n$ qui contiennent $0$ dans leur lieu singulier et nous relions l’indice radial d’une 1-forme en $0$ sur ces ensembles à des indices de Poincaré-Hopf en $0$ de champs de vecteurs définis sur $\mathbb{R}^n$.
En 1932, Paley et Zygmund démontrent que les séries trigonométriques aléatoires sur le tore sont presque surement plus régulières que ce a quoi on s'attendrait. Ce type de résultat a par la suite été étudié par de nombreux auteurs dans un contexte d'analyse harmonique (Pisier et Kahane notamment). Curieusement, pendant longtemps, les spécialistes des EDP ne se sont pas interessés à ce type de questions. L'objet de cet exposé est précisement de montrer quelques applications des idees directement inspirées de Paley et Zygmund, au contexte des EDP. Plus précisément, on montrera que pour certaines équations des ondes et de Schrodinger, pour des données initiales aléatoires, la situation est bien meilleure en termes d'existence et de comportement en temps longs, que pour des données initiales fixées. Il s'agit de travaux en collaboration avec N. Tzvetkov (Cergy) et L. Thomann (Nantes).
La séance précédente était consacrée aux algèbres de Boole et aux notions de filtre, d'idéal et d'ultrafiltre. Cette séance sera consacrée à la définition de la notion de modèle Booléen (en insistant sur les problèmes soulevés par cette définition) et à l'étude de ses propriétés: validité, complétude, etc. Je présenterai les principales constructions attachées aux modèles booléens: produit, quotient, ultraproduit, ultrapuissance. Je terminerai en montrant comment la théorie peut être appliquée à la construction des modèles de l'analyse non standard.
I prove that a set of non-properness of a dominant polynomial mapping f : X -> Y is always a k-uniruled hypersurface. As application, we see that a set of fixed points of unipotent group acting on affine variety is k-uniruled.
Voir la page dédiée.
La théorie des équations différentielles stochastiques rétrogrades (EDSRs) permet, entre autre, de donner une représentation probabiliste d'EDPs semi-linéaires. Dans cet exposé nous nous intéresserons à des EDSRs en horizon infini qui nous fournissent un outil alternatif pour l'étude de problèmes de contrôle optimal ainsi que certains problèmes de Neumann semi-linéaires associés à des phénomènes ergodiques et étudiés par G. Barles et F. Da Lio dans leur article ``On the boundary ergodic problem for fully nonlinear equations in bounded domains with general nonlinear Neumann boundary conditions'' (2005).
Let (X,\omega) be blown-up CP^2 equipped with some symplectic form. I show that Lagrangian isotopy classes of spheres in (X,\omega) can be indexed by conjugacy classes of certain generators in the group G of connected components of the symplectomorphism group of (X,\omega). Then I show that this group is isomorphic to the fundamental group G of the complement to certain divisor D in (Cp^2)^k parametrising certain constellations of k points in CP^2. I describe a presentation of the group G and compute it for certain special case. As the result, I show that for a special choice of the Kähler form in CP^2 blown-up in 5 points the Lagrangian isotopy classes of spheres representing a given homology class are paramtrized by integer 2x2-matrices in Gl(2,Z) conjugated to the matrix
| 1 2 |
| 0 1 |.
En combinatoire des mots et plus précisément dans l'étude des mots unidimensionnels, la notion de mot de retour a joué un rôle important, en particulier dans la caractérisation des mots sturmiens. Ces mots servant de représentation pour les droites discrètes, il est tout naturel de se poser la question d'une caractérisation en dimension supérieure, en particulier dans le cas des plans discrets. En dimension 2, on vient à considérer des mots bidimensionnels. Les notions habituelles doivent donc être adaptées. Nous verrons que le passage à la dimension 2 provoque de vrais problèmes vis à vis de définitions simples en dimension 1.
Les ensembles semi-algébriques et sous-analytiques p-adiques ont été introduits et étudiés par McIntyre, Denef et Van den Dries entre autres. Nous étudierons la géométrie des germes d'ensembles de ces catégories, tout particulièrement leurs propriétés métriques, comme l'existence de la densité locale et de cônes tangents distingués en montrant comment les propriétés géométriques des ensembles sous-analytiques réels se traduisent dans le cas valué.
Les théories de la calculabilité (que peut-on calculer ?) et de la complexité algorithmique (quelle est la difficulté intrinsèque d'un problème calculable ?) sont deux piliers de la science informatique. L'objectif de cet exposé est de donner un aperçu des concepts, des principaux résultats et des grands problèmes ouverts de ces théories. Selon le temps, nous parlerons de fonctions récursives, d'ensembles diophantiens, de pavages du plan, d'applications affines par morceaux, d'identités polynomiales, etc, avec le secret espoir de convaincre l'auditoire que la notion de calcul est avant tout protéiforme et peut s'immiscer dans de nombreux objets mathématiques ``classiques''.
Je présente un lambda calcul codant une logique intuitionniste du second ordre et permettant de programmer un ou-parallèle''. Ce calcul a les propriétés suivantes :
préservation de type'', forte normalisation'' et
unicité de représentation des données''. Il permet aussi d'écrire des programmes avec une sorte d'exception. Il est inspire du lambda-mu-{++}-calcul que j'ai introduit en 2002.
En 1962, Cohen a résolu le premier problème de Hilbert en montrant que l'hypothèse du continu est indécidable dans la théorie des ensembles de Zermelo-Fraenkel. La technique qu'il a introduite pour établir ce résultat non trivial - le forcing - est devenue aujourd'hui un outil standard en théorie des modèles. Cette technique a permis d'établir de nombreux autres résultats de cohérence relative (ou d'indépendance), comme par exemple la cohérence de l'axiome de Solovay: « toute partie de R est mesurable au sens de Lebesgue » dans une théorie des ensembles sans axiome du choix (mais avec choix dépendant).
Dans cet exposé introductif au forcing, je me propose de présenter la théorie des modèles booléens, une variante du forcing (introduite par Scott, Solovay et Vopenska dans les années 1960) qui permet de faire essentiellement les mêmes constructions que Cohen, mais dans un cadre qui est plus facile à saisir au premier abord. J'introduirai les notions de base (algèbres de Boole, ultrafiltres, modèles booléens, quotient, produit, ultraproduit et ultrapuissance) tout en illustrant mon propos par quelques exemples de constructions, notamment en lien avec l'« analyse non standard ».
La preuve de l'indépendance de l'hypothèse du continu à l'aide de ces outils fera l'objet de l'exposé suivant.
On considère la classe des systèmes de Timoshenko. L’objectif est de démontrer la stabilité à l’infini (l’énergie décroit vers zéro quand le temps converge vers l’infini) et obtenir une estimation sur le taux de décroissance. Pour cela, on distingue deux cas. 1. Les deux équations ont la meme vitesse de propagation : pour toute solution faible, on montre une estimation générale et explicite sur l’énergie ce qui donne une idée précise sur l’influence de chaque controle sur la stabilité du système. On donne quelques exemples pour illustrer notre estimation. 2. Les deux équations n’ont pas la meme vitesse de propagation : sous des hypothèses plus fortes et pour des solutions plus régulières, on montre une estimation de stabilité plus faible. L’idée de la démonstration est basée sur la méthode des multiplicateurs et quelques inégalités intégrales. Ses résultats ont été obtenus en collaboration avec S. Messaoudi (KFUPM, Dhahran, Arabie Saoudite) dont une partie va apparaitre dans Mathematical Methods in the Applied Sciences.
In 2003, Hofmann and Jost introduced a type system that uses a potential-based amortized analysis to infer bounds on the resource consumption of (first-order) functional programs. This analysis has been successfully applied to many standard algorithms but is limited to bounds that are linear in the length of the input.
Here we extend this system to polynomial resource bounds. An automatic amortized analysis is used to infer these bounds for functional programs without further annotations if a maximal degree for the bounding polynomials is given. The analysis is generic in the resource and can obtain good bounds on heap-space, stack-space and time usage. Furthermore, the analysis can be used to infer polynomial relations between the input and the output sizes of a function in the sense of sized types.
Travail en collaboration avec Jan Hoffmann.
The wire calculus is a process algebra for modelling truly concurrent systems with explicit network topologies. It benefits from using categorical operators for coordination of processes: the tensor product and sequential composition of monoidal categories. The dynamics are handled by operators inspired by Milner's CCS and Hoare's CSP: unary prefix operation, binary choice and a standard recursion construct. The operational semantics is a labelled transition systems derived using SOS rules. After presenting the formal definition of the calculus I will discuss some basic results and give several examples.
On s’intéresse aux structures R_f = (R,+,*,<,f) engendrées par une fonction C^\infty f restreinte à un compact. L’objet de cet exposé est de montrer que pour une fonction f générique, la structure R_f est o-minimale. On exibera en effet une condition explicite sur les développements de Taylor de f qui implique la o-minimalité de R_f et est générique au sens de Whitney. L’essentiel de la preuve consiste a établir la quasi-analyticité de certaines algèbres differentielles engendrées par f. Ce résultat permet d’obtenir très simplement les corollaires suivants (les deux premiers étant déjà connus) : 1. Il existe des structures o-minimales n’admettant pas la propriété de décomposition analytique. 2. Il existe des structures o-minimales incompatibles (au sens où elles ne sont pas des restrictions d’une même structure o-minimale) 3. Il existe des structures o-minimales incompatibles avec les sous-analytiques.
Les différentes parties de mes travaux de thèse en géométrie discrète et géométrie algorithmique seront présentées durant cet exposé.
Partie 1 : Nous considérons tout d’abord le problème de l’approximation d’un nombre réel par un nombre rationnel de dénominateur borné. Soit a un nombre réel, soit b et b’ deux nombres entiers tels que b<b’, nous souhaitons déterminer le nombre rationnel r=p/q qui approxime au mieux a, tel que b <= q <= b’. La principale approche numérique connue utilise le développement en fraction continue du réel a. Géométriquement, ce problème revient à déterminer le point de la grille le plus proche de la droite d’équation y=ax compris dans un domaine vertical défini par {(x,y) | b <= x <= b’}. Nous proposons de calculer l’enveloppe convexe des points de la grille situés au dessus (resp. en dessous) de la droite et compris dans le domaine vertical. Notre algorithme atteint une complexité logarithmique en la largeur du domaine vertical. De plus, il est adaptatif puisque le nombre d’itérations en temps constant effectuées par notre algorithme est exactement égal au nombre de sommets des deux enveloppes convexes calculées.
Partie 2 : Par la suite, nous présenterons notre algorithme de reconnaissance de plans discrets. Nous rappelons qu’un ensemble de points S de Z^3 est appelé morceau de plan discret s’il est contenu dans la discrétisation d’un plan euclidien. Un tel algorithme est utilisé pour décider si un sous-ensemble de points d’un objet discret peut être remplacé par une facette dans une représentation polyédrique de l’objet. La méthode proposée décide si un sous-ensemble de points de Z^3 correspond à un morceau de plan discret en résolvant un problème de réalisabilité sur une fonction convexe en dimension 2, dite fonction épaisseur. Ainsi, notre méthode ne prend en compte que deux paramètres et elle utilise des techniques géométriques planaires pour déterminer si l’espace des solutions est vide. Notre algorithme s’exécute en O(n log D) dans le pire cas ou n correspond au nombre de points de l’ensemble S et D représente la taille d’une boite englobant S. Notre méthode s’avère également efficace en pratique et reconnaît un ensemble de 10^6 points en environ 10 itérations linéaires.
Partie 3 : Si le temps nous le permet, nous aborderons enfin une problématique un peu à part : calculer l’épaisseur d’un ensemble de points de Z^d dans le réseau entier de même dimension (épaisseur latticielle). L’épaisseur d’un ensemble de points K suivant une direction c de Z^d correspond à la quantité max{c.x | x \in K} - min{c.x | x \in K}. L’épaisseur latticielle de l’ensemble de points K correspond à l’épaisseur minimum pour toutes les directions du réseau. D’après une idée originale de Fabien FESCHET, nous avons mis en place un algorithme valable en toute dimension pour déterminer cette épaisseur. Cette méthode s’avère optimale puisque linéaire en temps dans le cas planaire. En dimensions supérieures, nous passons par une approche gloutonne qui s’avère efficace en pratique.
TBA
L'exposé sera pour un public de non spécialistes. J'essaierai de raconter ce qu'est un bon langage de programmation (selon moi) et donc ce qu'est PML. J'essaierai notamment d'expliquer les points suivants: