une IA ne lit pas pour elle-même. Elle lit pour nous.
Elle ne lit pas “pour nous”, parce qu’il n’y a pas de “nous” monolithique.
Pour qu’il y ait un “nous” monolithique, il faudrait distinguer d’IA d’une part, et la “communauté humaine” d’autre part.
Or, l’IA est une technologie qui capte la valeur à un endroit et la redistribue à un autre endroit.
Elle le fait pour le compte de son concepteur, qui est dans la plupart des cas un acteur privé.
La vocation de cet acteur est de monnayer ce service rendu (qui est bien réel et parfois époustouflant, je te rejoins).
Cette monétisation implique des utilisateurs.
La valeur ajoutée produite par l’IA est partagée entre le concepteur (valeur économique ou financière) et les utilisateurs (valeur d’usage).
Cette asymétrie de nature entre les valeurs entraine une asymétrie entre les acteurs suivant que l’organisation de la société valorise davantage le capital ou le travail.
Cette asymétrie brise l’idée d’un “nous” monolithique. Et la technologie est à la fois le moyen et la finalité de cette asymétrie. Cf. Braverman par exemple.
Autrement dit, il n’y a pas un “nous monolithique”, mais des “concepteurs” et des “utilisateurs”. Ce ne sont pas les mêmes. Et entre eux, des rapports de forces qu’on appelle “le marché”, ainsi que des régulations ou des absences de régulation, notamment le droit d’auteur.
Une posture éthique passerait par questionner ces rapports de forces indépendamment de la technologie sous-jacente (ni avec elle, ni contre elle, comme c’est encore souvent le cas pour l’IA).
(Je peux paraître très critique, ça ne doit pas masquer que je trouve ton post très intéressant)
Elle ne lit pas “pour nous”, parce qu’il n’y a pas de “nous” monolithique.
Pour qu’il y ait un “nous” monolithique, il faudrait distinguer d’IA d’une part, et la “communauté humaine” d’autre part.
Or, l’IA est une technologie qui capte la valeur à un endroit et la redistribue à un autre endroit.
Elle le fait pour le compte de son concepteur, qui est dans la plupart des cas un acteur privé.
La vocation de cet acteur est de monnayer ce service rendu (qui est bien réel et parfois époustouflant, je te rejoins).
Cette monétisation implique des utilisateurs.
La valeur ajoutée produite par l’IA est partagée entre le concepteur (valeur économique ou financière) et les utilisateurs (valeur d’usage).
Cette asymétrie de nature entre les valeurs entraine une asymétrie entre les acteurs suivant que l’organisation de la société valorise davantage le capital ou le travail.
Cette asymétrie brise l’idée d’un “nous” monolithique. Et la technologie est à la fois le moyen et la finalité de cette asymétrie. Cf. Braverman par exemple.
Autrement dit, il n’y a pas un “nous monolithique”, mais des “concepteurs” et des “utilisateurs”. Ce ne sont pas les mêmes. Et entre eux, des rapports de forces qu’on appelle “le marché”, ainsi que des régulations ou des absences de régulation, notamment le droit d’auteur.
Une posture éthique passerait par questionner ces rapports de forces indépendamment de la technologie sous-jacente (ni avec elle, ni contre elle, comme c’est encore souvent le cas pour l’IA).
(Je peux paraître très critique, ça ne doit pas masquer que je trouve ton post très intéressant)