Dossier: Comprendre le “wokisme”
Qu'est-ce que le wokisme? le wokisme est une idéologie qui perçoit les sociétés occidentales comme étant fondamentalement régies par des structures de pouvoir, des hiérarchies de domination, des systèmes d’oppression qui auraient pour but, ou en tout cas pour effet, « d’inférioriser » l’Autre, c’est-à-dire la figure de la minorité sous toutes ses formes