
Surveillance de masse et armes autonomes: le débat sur l’IA s’intensifie
TVA Nouvelles
Un débat sur les limites éthiques de l’intelligence artificielle prend de l’ampleur après que l’entreprise américaine Anthropic a refusé de permettre l’utilisation militaire sans restriction de son IA. En parallèle, un mouvement baptisé QuitGPT appelle désormais les internautes à boycotter ChatGPT, accusé d’être lié à des intérêts politiques.
• À lire aussi : Anthropic va poursuivre l’administration Trump après avoir été placée sur la liste des entreprises « à risque »
• À lire aussi : « Ça risque d’être assez aliénant »: l’intelligence artificielle va surveiller les employés de Burger King au Québec
• À lire aussi : Ottawa demande à Meta de s’expliquer à propos des vidéos intimes captées par les lunettes d’intelligence artificielle
Un débat sur la gouvernance de l’intelligence artificielle a récemment été mis de l’avant par l’entreprise américaine Anthropic, spécialisée dans la sécurité et la recherche en matière d’IA. C’est aussi cette entreprise qui a développé l’assistant conversationnel Claude qui compétitionne avec ChatGPT.
Le PDG d’Anthropic, Dario Amodei, a affirmé le 28 février dernier que son entreprise refusait que son intelligence artificielle soit utilisée pour la surveillance de masse des citoyens américains, une pratique qu’il juge incompatible avec les valeurs démocratiques. Il a tenu ces propos lors d’une entrevue accordée à CBS News.
Cette position s’inscrit dans un contexte de tensions avec le Pentagone. À l’approche de l’attaque contre l’Iran, le département de la Défense aurait exigé qu’Anthropic fournisse son IA sans restriction pour une utilisation militaire légale. L’entreprise a refusé pour des raisons éthiques et liées aux droits fondamentaux.
Des inquiétudes existent également concernant le développement d’armes entièrement autonomes, souligne la spécialiste en intelligence artificielle Ravy Por.
« Je vous donne un exemple : un drone qui peut identifier une cible, déployer, dans le fond, une attaque sans intervention humaine. Présentement, comme Dario Amodei le mentionne, les modèles ne sont pas fiables, les modèles n’ont pas encore été entraînés à 100 % là-dessus », a-t-elle expliqué aux ondes de LCN, dimanche.













