Le bayésianisme est une forme d'épistémologie qui prône l'usage de l'inférence bayésienne dans le raisonnement scientifique en en faisant un critère de démarcation entre la rationalité et l'irrationalité de manière générale. Cela consiste à modéliser toute forme de croyance par un degré de crédibilité valant entre 0 et 1, et répondant aux axiomes des probabilités.
Pour commencer, le livre présente la formule de Bayes et le pur bayésianisme. Les chapitres suivants ont pour but de révéler la présence cachée de principes bayésiens dans des phénomènes dont on ne suspecterait pas l'aspect bayésien. Puis, l'auteur étudie le bayésianisme pragmatique et ses outils incontournables. Enfin, un des derniers chapitres, intitulé « tout est fiction », étudie les conséquences philosophiques du bayésianisme, notamment en terme de réalisme. L'auteur retrace les origines de ses croyances et questionnera notre excès de confiance récurrent avant d'aborder les conséquences du bayésianisme sur la philosophie morale.
Les humains seront-ils un jour dominés par des algorithmes ?
Installez-vous confortablement dans un transat, et laissez-vous guider sur le chemin menant des premières idées du génie anglais Alan Turing aux capacités affolantes des ordinateurs quantiques et aux promesses de l'intelligence artificiel. Les progrès sont immenses mais les obstacles encore nombreux.
Au moment de quitter votre transat, vous ne regarderez plus votre ordinateur de la même manière...
L'histoire de nos civilisations est marquée par l'externalisation progressive de l'information, de l'invention du langage à celle de l'imprimerie. La révolution algorithmique est sans doute la plus spectaculaire de ces externalisations, car elle est incarnée par le traitement automatisé de l'information. Désormais, Homo Sapiens s'appuie davantage sur son téléphone que sur son cerveau pour mémoriser la connaissance, s'orienter en ville ou planifier ses vacances. Cette révolution présente des opportunités fantastiques dans les sciences, la santé et la protection de l'environnement.
Cependant, le déploiement du traitement automatisé de l'information est allé si vite que ses effets secondaires n'ont pas eu le temps d'être anticipés adéquatement. Par exemple, les algorithmes de recommandations influencent quotidiennement les croyances de milliards d'individus, avec un degré de personnalisation stupéfiant. Pour le meilleur, mais aussi pour le pire. Discours de haine, biais sexistes, addiction, conspirationnisme, manipulations politiques, propagande antivaccin, ou encore catalyse de génocides. Boostée par des techniques de machine learning mal maîtrisées, l'information automatiquement (mal) traitée tue.
Ce livre analyse, dans un langage accessible, les effets secondaires présents et les risques futurs du déploiement massif des algorithmes. Il fournit au lecteur une compréhension conceptuelle des algorithmes clés en jeu, de leurs limites et de leurs vulnérabilités. Ce livre esquisse aussi le chantier initié par une communauté croissante de chercheurs dans le but de rendre le traitement automatisé de l'information robustement bénéfique pour l'humanité. Il souligne les enjeux de ce fabuleux chantier, les principaux défis qu'il pose et comment chacun, expert ou non, peut apporter sa pierre à l'édifice.