Alors que de nombreux pays se précipitent pour centraliser le contrôle de l’intelligence artificielle (IA), l’Afrique du Sud adopte une approche singulière en répartissant les responsabilités entre les agences existantes et en privilégiant la coordination sectorielle plutôt qu’un contrôle vertical rigide.
Le 2 avril 2026, le cabinet sud-africain a publié une version préliminaire de sa politique nationale, datée du 24 octobre 2024, pour consultation publique. Pilotée par le Département des Communications et des Technologies Numériques (DCDT), cette politique devrait être pleinement mise en œuvre au cours de l’exercice financier 2027/2028.
« La politique sur l’IA vise à garantir que les avantages et les risques apportés par l’IA soient répartis de manière équitable dans toute la société et entre les générations », a déclaré le cabinet sud-africain dans un communiqué officiel.
L’absence de super-régulateur
Dans des pays comme le Nigeria et le Kenya, les décideurs s’orientent vers une surveillance centralisée de l’IA. Des agences dédiées, des commissaires et des structures descendantes deviennent la norme.
Le projet de loi nigérian sur l’économie numérique suit une approche prescriptive basée sur le risque, inspirée par l’EU AI Act de l’Union européenne.
Les systèmes d’IA à haut risque — notamment dans la surveillance, la finance et l’administration publique — nécessiteraient des licences, des audits et des évaluations d’impact annuelles.
Le projet de loi kényan de 2026 suit une voie similaire mais ajoute une dimension politique forte.
À l’approche des élections, il cible les médias synthétiques et la manipulation par l’IA, imposant des sanctions pénales pour les deepfakes non consentis.
Parallèlement, il maintient une certaine flexibilité pour l’innovation via des bacs à sable réglementaires (sandboxes).
L’Afrique du Sud prend le contre-pied de cette tendance.
Au lieu de créer un nouveau régulateur, la politique sud-africaine s’appuie sur des institutions déjà ancrées dans leurs secteurs respectifs.
La Financial Sector Conduct Authority (FSCA) et la Banque centrale sud-africaine superviseront les systèmes d’IA financière.
L’Autorité de réglementation des produits de santé (SAHPRA) s’occupera de l’IA dans les diagnostics médicaux. Le Régulateur de l’information conserve son rôle de garant de la confidentialité des données en vertu de la loi POPIA.
La logique est que les régulateurs les plus proches du terrain sont les mieux placés pour gérer les problèmes.
Un régulateur minier comprend les risques miniers ; un régulateur financier comprend les systèmes financiers. Pourquoi bâtir une nouvelle bureaucratie quand l’expertise existe déjà ?
Une régulation basée sur le risque
Le pilier du cadre sud-africain est une réglementation par niveaux de risque. Tous les systèmes d’IA ne sont pas traités de la même manière. Ils sont regroupés en quatre catégories : risque inacceptable, élevé, limité et minimal.
Au sommet de l’échelle, certaines applications, comme les systèmes comportementaux manipulateurs ou les formes de surveillance de masse, sont purement interdites.
Les systèmes à haut risque, tels que ceux utilisés dans le recrutement, l’octroi de prêts ou la santé, font l’objet d’un examen plus strict, incluant des audits et une exigence de supervision humaine.
L’idée est de concentrer la puissance réglementaire là où elle compte le plus. Plutôt que des restrictions généralisées, le système envoie un signal clair : plus le préjudice potentiel est élevé, plus la charge de conformité est lourde.
Le défi de l’application et de la fragmentation
Cependant, cette conception introduit une tension fondamentale. Une surveillance distribuée offre de la flexibilité, mais elle risque aussi de provoquer une fragmentation.
Le cadre est clair sur ce qui doit être fait (audits, transparence), mais moins sur l’autorité finale qui garantit la conformité.
Le résultat pourrait être une surveillance inégale. Les régulateurs financiers, souvent bien dotés, pourraient appliquer les règles rigoureusement, tandis que d’autres secteurs pourraient accuser un retard.
De plus, la capacité technique est une contrainte majeure. Évaluer des systèmes d’IA en constante évolution exige des compétences rares et coûteuses que de nombreux régulateurs n’ont pas encore acquises.
Enfin, au-delà de la gouvernance, ce cadre est une véritable stratégie industrielle. Il souligne la nécessité de développer des jeux de données locaux et le traitement des langues africaines pour réduire les biais des modèles entraînés à l’étranger.
L’objectif final est de bâtir un écosystème d’IA plus inclusif et souverain.


