La responsabilité des intelligences est fonction des lois. Seulement les voitures autonomes peuvent créer des accidents. Donc elles ne sont pas autonomes.
Les LLM ont une créativité logique mais elle est due à l’ensemble des programmeurs qui ont fait le projet. En effet, on ne peut individualiser une équipe tout simplement pour garder une cohésion au projet. On voit souvent des entreprises dire on a changé l’équipe souvent précaire tout en gardant la même ligne directrice qui a conduit à la faute. Il ne s’agit donc pas d’individualiser mais de rester pragmatique.
Les constructeurs ont intérêt à finaliser leurs produits. Il faut donc une autorité indépendante pour déterminer la mise sur le marché de robots afin de respecter l’humain. Comme pour le Vatican, on peut à la fois inciter et vérifier.
La Chine a partagé des sources de LLM. Je pense que cela doit au moins être encouragé. En effet, on ne peut accepter que ce ne soit qu’un problème logiciel qui fasse qu’un robot soit délaissé. Il faut donc inciter à partager des sources et à recréer de nouvelles filières.
Le robot peut être mis à jour. Seulement les constructeurs veulent vendre de nouveaux robots, ce qui va contre l’économie de travail de Leibniz.