Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

Poisson d'avril ?

30 Mars 2006, 17:27pm

Publié par Fabien Besnard

Sur son blog, David Corfield signale un article récent de Oliveira et Rodrigues. Ces deux messieurs sont partis en croisade contre les papiers absurdes ou simplement grossièrement faux qui ont de plus en plus souvent tendance à apparaître dans les archives ou même dans les revues à comité de lecture, problème dont l'affaire Bogdanoff fut à bien des égards un révélateur. Parmi les derniers articles épinglés on trouve celui de Jack Sarfatti, également discuté ici, et donc celui de L. A. V. Carvalho, intitulé "On some contradictory computation in multi-dimensional analysis", publié dans Nonlinear Analysis. Cet article prétend prouver les choses suivantes : "les mathématiques multi-variables sont contradictoires avec l'arithmétique", "une rotation d'angle qui n'est pas un multiple entier de pi/2 est contradictoire avec l'arithmétique", "la théorie des nombres complexes est contradictoire", et enfin "les transformations de Lorentz sont contradictoires, sauf si la vitesse est nulle". Outre les curiosités de langage comme "mathématiques multi-variables, ce papier proclame finalement, et en toute modestie, que les mathématiques et la physique post-newtonienne, soit une partie substantielle de tout le savoir humain, sont absurdes. Il s'avère que ces nouvelles fantastiques sont le fruit d'une erreur grotesque que je laisse au lecteur le plaisir de découvrir (il suffira pour cela au lecteur, pour la partie mathématique, de connaître le théorème des fonctions implicites, et pour la partie physique d'une connaissance basique des transformations de Lorentz).

Il y a évidemment de quoi rire et croire à un poisson d'avril puisque la date approche. Il ne semble pourtant pas que ce soit le cas, ou alors celui-ci est préparé de longue date  (l'article est paru en 2005). Quoi qu'il en soit une chose est certaine, l'article est paru dans une revue sérieuse, et en belle et nombreuse compagnie puisque le numéro en question de Nonlinear Analysis est consacré aux actes du 4e congrès mondial des analystes non-linéaires. En fait on tient là un début d'explication. Pour ce genre d'événement de nombreux chercheurs, en particulier des jeunes, soumettent leur papier en espérant avoir l'honneur d'une présentation orale de quelques minutes, ou plus modestement d'un poster affiché dans le hall. Les organisateurs, débordés de demandes, n'ont pas le temps nécessaire pour vérifier la solidité de tous ces articles. Le papier de L.A.V. Carvalho semble prouver qu'ils n'ont même pas le temps de les lire en diagonale. Il est cependant étonnant que l'article ait été publié par la suite avec les autres, compte tenu de l'énormité de ce qu'il affirme et qui n'est même pas caché derrière un jargon impénétrable. Cela pourrait signaler, comme j'en suis d'ailleurs persuadé, qu'il ne s'agit donc que de la partie émergée de l'iceberg...

L'entreprise de Rodrigues et de ses collaborateurs doit être saluée, car non seulement elle est nécessaire mais elle est courageuse. Il y a en effet beaucoup à perdre pour un scientifique à s'engager dans une polémique publique contre la pseudo-science, le charlatanisme ou la simple pipeaulogie. Il est évident que l'on y perd d'abord du temps et cela suffit à dissuader beaucoup de scientifiques. Rodrigues, tout comme en France Henri Broch, fondateur du laboratoire de zététique de l'université de Nice, ont un autre point de vue : démasquer les impostures des pseudo-scientifiques est avant tout un bon exercice, très formateur pour les étudiants car il leur permet d'appliquer leurs connaissances tout en développant chez eux la véritable démarche scientifique. Mais outre du temps, à ce jeu là on risque aussi sa réputation... En effet, de nombreux scientifiques considèrent ce type de sujet comme sale, et regardent ceux qui se mêlent de pseudo-science, même pour la démasquer, comme frappés d'indignité. J'ai eu moi-même l'occasion de constater ce phénomène pour le petit rôle que j'ai joué dans l'affaire Bogdanoff. Deux collègues, que je ne connaissais pourtant pas personnellement, m'ont contacté pour, en gros, m'expliquer que je n'avais rien à gagner à remuer la boue. Pour l'un il s'agissait d'une mise en garde en forme de conseil d'ami, il a d'ailleurs fini par m'encourager à continuer, pour l'autre le ton était plus menaçant. J'avoue avoir beaucoup de mal à comprendre ce type de comportement. Le fait est que relativement peu de scientifiques se risquent sur ce terrain, alors profitons-en pour saluer ceux qui n'hésitent pas à le faire.

Commenter cet article

PierreD 12/04/2006 20:47

Je n arrive pas a bien mettre en page mon long message, je vous propose de le trouver sur mon blog si vous n arrivez pas a le lire. désolé.

PierreD 12/04/2006 20:46



[desolé pour la longeur du mess, d'ailleurs je fais un post sur mon blog en copié collé]Il y a beaucoup de chose dans votre message, et beaucoup de chose que j ai envie de commenter, mais je vais essayer de me focaliser sur quelques points. D'abord il peut être intéressant de faire la distinction entre théorie des probabilités (modelé mathématique rigoureux et non (peu) discuté) et son application au vrai monde, c'est a dire une théorie physique, qui s'appelle les statistiques. En théorie des proba. (axiomatique de Kolmogorov, théorie de la mesure) on a pas besoin d'interprétation et il n y a donc pas débat freq/bay. On a des variables aléatoires avec des propriétés mathématiques, comme la loi des grands nombres. Cette dernière est un théorème issu des axiomes, et ne confirme en rien une interprétation ou l autre. Par contre, des que j'étudie le monde, le débat émerge, car selon ma position, je ne ferai pas les mémés calculs sur mes données. Vous parlez d'estimateurs, un concept typiquement frequenciste qui n a pas vraiment de sens en bayesien. C est cette dépendance des estimateur sur des donnes non observées qui pose pb. L'interprétation des probas a pour conséquence une approche statistique différente, c est comme ça, le débat n est pas la, si vous n étés pas d accord,et bien vous vous trompez ;-). Un bayesien ne calculera jamais un "estimateur sans biais" ni un intervalle de confiance et un frequenciste ne calculera jamais une densité a posteriori, ni de proba sur les paramètres d un modèle. Pour ce qui est de votre exemple, on peut comparer les deux approches, mais faut aller rigoureusement jusqu au bout pour voir que ça ne donnera pas les même résultats. Le PB est : moi, expérimentateur, j ai une urne devant moi dont je ne vois pas la taille, mais de laquelle j ai tiré un 2. Et je veux dire si il est plus "probable" qu' il y ait 10 ou 1000 boules. Pour les deux approches, soit k le nb de boules au total, alors k appartient a IN. Notre espace des possibles est IN. * Approche frequenciste: Déjà on a un PB, car comme il n y a qu' une seule et unique urne, k est fixe et non de nature aléatoire, k a une certaine valeur, a la limite et par convention on peut dire que c est une var. aléatoire constante, de proba 0 partout et 1 dans sa vraie valeur. Alors la question de savoir si il est plus probable k=10 ou k=1000 n a pas de sens du tout. La question qui a un sens est de construire un estimateur de cette valeur k a partir des données. Un estimateur k^ (le chapeau est sur le k) est une heuristique ayant de "bonnes" propriétés, y en a autant qu' on peut avoir de définition de "bonne". Il est courant de prendre l estimateur de max. de vraisemblance k^=ArgMax_k P(Donne; si le parm. est k). Ici on a 1 donnée, et il est raisonnable de modéliser P(D;k)=unif(1..k). Alors k^=ArgMax (1/k si k=>2, 0 sinon)=2. L'estimateur de maxVraiss est k^=2, c est comme ça, bien qu il soit peut intuitif. Cet estimateur k^=D n'as pas la bonne propriété d'être sans biais car E[k^]=E[D]=k/2 != k. On peut alors proposer comme autre estimateur k^^ = 2D, qui est sans biais. Bref, il a plein d d'estimateurs, en choisir un a qq chose de subjectif, non ? Et on a pas répondu a la question, car on dit des fois que k=4, et des fois que k=2, ... Mais aucune procédure frequenciste ne permet de trancher objectivement entre 10 et 1000. * Approche bayesienne: Ce qui manque a l approche frequenciste, c est de pouvoir dire qu on aime mieux les petites urnes. Sans ça, on ne peut rien dire de plus que k>=2. (Cette impossibilité de dire plus de choses se traduit par l impossibilité de préférer un estimateur a un autre). Ici on a un PB réel, un PB physique qu on veut résoudre. Et on sait des choses sur le monde physique, comme par exemple que l urne ne peut pas être arbitrairement grande. C'est ce que le philosophe pensait intuitivement, il apportait des connaissances autres que le strict énoncé. Dans le vrai monde, les petits nb de boules sont plus fréquent que les grands, donc un observateur a une plus grande CROYANCE que l urne soit petite que grande. Cette croyance depend de plein de choses, elles est subjective, elle depend de l experience passée de l'observateur (jamais vu d urne de la taille de la terre) mais aussi de conseils qu on a recu (ma mere ma dit qu'il n existait pas plus de 1000 boules sur la terre), et aussi de modele physique (cette urne de 1m3 ne peut contenir plus de 20000 de boules)... Cette Croyance est difficile a colecter, a formaliser ( c est un GROS point faible du bayesien), mais en admettant qu on l ait formalisee sous forme d un fonction de IN entre 0 et 1, alors on va faire les raisonnement "optimaux". Dans l'exemple, comme la proba est une mesure de croyance, je peux mettre des probas sur les evenements k=1, k=2 ..., je peux considerer k comme une variable aleatoire (le terme aleatoire est historique, car en bayesien je peux parler de proba meme si il n y a pas d'exp.aleatoire, si tout est determiné. D'ailleurs il est diffcile de definir le hasard, de savoir si le monde est deterministe ou pas. Tout ceci est flou, en tout cas pour moi). Bref, j ai une urne, j ai tiré un D=2 et je me pose la question parfaitement definie P(k=10 | D=2) >?< P(k=10000 | D=2). Pour cela je peut faire le rapport et je dois utliser Bayes : P(10|2)/P(1000|2) = P(2|10)/ P(2|1000) * P(10)/ P(1000). On a toujours la vraissemblance P(D|k)=unif(1..k) ce qui donne au premier terme la valeur 100, le pb est le 2eme, le prior. Pour choisir ce prior P(k), y a plusieurs ecoles, et une biblio de these a faire. Il faut integrer la contrainte de normalisation (Summ P(k) = 1) et aussi notre a priori de decroissance, voir de nullité apres un seuil. C'est un boulot de modelisation de ses connaissances. D'autre part gens se posent des pb d'ecoles comme : et si on sait rien ? Et si on sait juste que E[k]=1500 ? et si on veut que notre prior influence le moins possible ? et si on veut que le resultat ne depende pas d'un certaine transofrmation sur k ? et si on veut que les calculs soient faciles ? Une option courrante est de pendre un prior parametrique conjugé, c est a dire facile a manipuler et suffisamment souple pour representer notre croyance. Ici on veut surtout la decroissance en k, d'une force reglable f. Le prior qui va bien est celui de Pareto de parametre (1,f). Sans renter dans les details, on arrive au final sur P(10)/ P(1000)=(100)^(f+1). Donc dans le rapport des posteriors on voit que les donnee donnee 100 fois plus de confiance en la valeur 10, et que notre a priori lui donne une confiance (100)^(f+1) fois plus grande. Tant que f>0 (ie decroissance), 10 est bien plus "probable" que 1000. Une anlyse mathematique plus fine montre qu au pire si on prend un "prior plat" (mm si il n est pas normalisé), on a un rapport de 100^2. Dans ce cas, le mode du posterior est egale a l estimateur de maxVrai frequenciste, et sa mediane a l estimateur sans biais. Mais ce ne justifie pas l approche frequenciste, c'est une "coincidence". Donc, en definite les frequencistes, ne voulant pas utiliser de prior sur k, ne peuvent pas dire plus que ce qu ils disent. Les bayesiens galerent pour formaliser leurs priors pour un pb donné, mais une fois que c est fait, ces infos permettent de dire plus de choses sur le pb, forcement. Il est vrai qu'en freq, on aurrait pu considerer un double exp aleat. imaginaire, on aurrait pu considerer que l urne elle meme etait tiree et donc que k etait une V.A. Mais dans ce cas il faut definir cette population imaginaire d urnes, ce qui revinent exactement a donner un prior sur k, et dans un cadre vachement plus boiteux que le bayesien (exp. imaginaire mal definie peut entrainer des paradoxes (Bertarnd)). Le frequenciste c est mal quand on l applique sans comprendre, c est mal quand on refuse de prendre des infos qu on a pourtant, c est mal quand on interprete mal ses resultats (pvalues), c'est mal car faut toujours d inventer de nouvelles techniques (estimateurs) pour chaque pb, mais surtout c est mal quand on croit que c est un methode objective. On ne peut pas avoir des conclusions sans faire d'hypothese, avoir des priors ca fait chier, mais c'est necessaire. Sinon, on se voile la face. En résumé : > il n'y a pas de différence calculatoire entre bayésien et fréquentiste, Si ! il y en a. On n'utilise pas les meme informations, on ne calcule pas les meme quantités, on ne fait pas les memes predictions. Et meme si dans certains cas on fait numeriquement le meme calcul, ca ne veut absolument pas dire qu'on en tire les meme conclusions.

Fabien Besnard 10/04/2006 12:52

Bon j'ai jetté un oeil. Il m'est difficile de juger car mes cours de stats sont loins (et ne m'ont d'ailleurs pas laissé un souvenir de très grande rigueur mathématique). Le "paradoxe" semble concerner un estimateur, ce n'est donc pas un problème d'interprétation des probabilités mais de méthodologie statistique. Vous me direz peut-être que l'un implique l'autre. Mais là je ne suis pas d'accord, et je pense que c'est précisément ce point qui obscurcit le débat. Prenons un exemple que j'ai déjà eu l'occasion de discuter avec un soi-disant philosophe. On a une urne contenant des boules numérotées. J'en tire une au hasard et j'obtiens "2". La probabilité que l'urne contienne 1000 boules est-elle inférieure à celle que l'urne contienne 10 boules ? Il soutenait que oui, et je pense que c'est une approche raisonnable d'un point de vue statistique et pratique. Mais d'un point de vue purement mathématique la seule réponse raisonable est "je n'ai aucun moyen de le savoir". En effet si je fais des probas je veux un espace mesuré, et là je n'ai rien de défini proprement. Une fois que j'ai dit ça, je suis conduit naturellement à définir un espace contenant les évenements "l'urne contient 1 boule, 2 boules etc...", à mettre une proba là-dessus et à utiliser la formule de Bayes. Est-ce que ça fait de moi un bayésien ? Je ne crois pas, car mon interprétation du résultat (une proba) peut rester fréquentiste. Néanmoins j'aurais en pratique la même démarche qu'un statisticien bayésien (si j'ai bien compris). Peut-être qu'un bayésien plus cavalier aurait simplement appliqué le principe d'indifférence en mettant une "prior" 1/2 à l'événement "l'urne contient 10 boules" ? En l'occurence j'estime que cette supposition ne repose sur rien. Si on doit effectuer une simulation par exemple, il faudra bien un générateur de hasard pour déterminer le nombre de boules dans l'urne. Je ne sais pas si j'arrive à bien me faire comprendre car je suis obligé de taper en vitesse, mais ce que je veux dire c'est que si on essaye de définir les choses rigoureusement, assez rigoureusement pour être en position de valider expérimentalement le résultat, il n'y a pas de différence calculatoire entre bayésien et fréquentiste, mais bien sûr il y en aura toujours une dans l'interprétation du résultat, c'est-à-dire sur le concept même de probabilité.

Fabien Besnard 10/04/2006 11:56

C'est très peu convaincant. Je ne vois pas en quoi un résultat peut-être dérangeant si de toute façon la loi des grands nombres valide a posteriori l'approche fréquentiste. Qu'on fasse une simulation et si on trouve une fréquence différente de la proba calculée alors je serai d'accord pour dire que c'est dérangeant. Je jetterai un coup d'oeil à l'occasion à l'article mais je suis sceptique.
 

PierreD 10/04/2006 11:00

De rien.D'abord je dois dire que j ai lu pas mal de documents ecrits par des bayesiens qui critiquent les frequensistes, et peu de papiers contraires. C'est pourquoi mon opinion est certainement biaisée.Ceci dit il y a des "paradoxes" clairs pour l approche frequ., a cause de l intergration sur des données qu on a pas réellement collectées, mais qu on *aurrait pu* avoir. Bien sur, si on change la definition de ces données virtuelles, on change nos estimations. L'exemple d'ecole est l estimation de la proba de faire Pile d une piece (notons q), en sachant qu on a lance 20 fois et obtenu 7 piles. Le pb est que cette estimation (qui se veut non biaisée) sera differente pour ces meme donnees (20,7) dans les 2 cas suivant:* l'intention de l experimentateur etait de lancer 20 fois et de compter le nb de pile (ici 7)* son intention etait de lancer autant de fois que necessaire pour avoir 7 pile, et de compter le nb total de lancés (ici 20)Que l'estimation de q dependent de cette intention est assez derangeant, en bayesien on a pas ce pb, bien qu on ait aussi une dependance au prior du statisticien. Mais au moin la subjectivité est explicitement prise en compte, de facon "propre".Pour des details et d autre pathologies du frequentisme,* http://research.microsoft.com/~minka/papers/pathologies.html* Les 3 derniers slide de ce cours de Jefferys:http://quasar.as.utexas.edu/courses/stat295.2005/Interpretation.pdfSinon, pour le pb des 2 enveloppes, j avais regardé y a qq temps, ce pb est extensivement discuté, mais si je me souviens bien:* il ne peut y avoir d approche freq. de ce pb car les frequences ne peuvent etre definies dans ce cas* En bay donc, le paradoxe s evapore si on met un prior raisonable (decroissant) sur les sommes possibles mises dans une enveloppe (ie: dans la vraie vie, il est moins probable qu il y ait  1200000000 $ que la moitié)* cependant on peut trouver un prior artificiellement "uniforme" pour lequel le paradoxe semble rester. Mais pour ce genre de prior, l'esperance de gain est infinie, elle ne converge pas et donc le raisonnement n est plus valide.Voir larticle de wiklipedia anglais (le fr est nul)http://en.wikipedia.org/wiki/Two_envelopes_problemPierreD