
Pour empêcher des utilisations préjudiciables de Claude, un concurrent de ChatGPT, Anthropic annonce que certains de ses modèles d'IA mettront directement fin à « des cas rares et extrêmes d'interactions utilisateurs persistantes, nuisibles ou abusives ».