Source : Cointelegraph
Texte original : 《 DeepSeek : un cri d'alarme pour une innovation responsable et la gestion des risques 》
Auteur de l'opinion : Dr Merav Ozair
Depuis son lancement le 20 janvier, DeepSeek R1 a attiré l'attention d'utilisateurs ainsi que de magnats de la technologie, de gouvernements et de décideurs politiques à travers le monde - des éloges aux doutes, de l'adoption aux interdictions, des brillances de l'innovation aux vulnérabilités de la vie privée et de la sécurité incommensurables.
Qui a raison ? Réponse brève : tout le monde a raison, et tout le monde a tort.
Ce n'est pas le "moment Spoutnik"
DeepSeek a développé un modèle de langage de grande taille (LLM) dont les performances peuvent rivaliser avec celles de GTPo1 d'OpenAI, tout en nécessitant seulement une fraction du temps et des coûts nécessaires à OpenAI (et à d'autres entreprises technologiques) pour développer leur propre LLM.
Grâce à une optimisation astucieuse de l'architecture, les coûts d'entraînement et d'inférence du modèle ont été considérablement réduits, permettant à DeepSeek de développer un LLM en moins de 600 000 $ en 60 jours.
En effet, DeepSeek mérite d'être reconnu pour sa recherche active de meilleures méthodes d'optimisation des structures de modèles et du code. C'est un signal d'alarme, mais cela ne peut en aucun cas être qualifié de "moment Spoutnik".
Chaque développeur sait qu'il existe deux façons d'améliorer les performances : optimiser le code ou "investir" une grande quantité de ressources de calcul. Cette dernière option est très coûteuse, c'est pourquoi les développeurs sont toujours conseillés de maximiser l'optimisation de l'architecture avant d'augmenter les ressources de calcul.
Cependant, avec la valorisation élevée des startups en intelligence artificielle et l'afflux d'investissements massifs, les développeurs semblent devenir paresseux. Si vous disposez de plusieurs milliards de dollars de budget, pourquoi prendre le temps d'optimiser la structure des modèles ?
Ceci est un avertissement pour tous les développeurs : revenir à l'essentiel, innover de manière responsable, sortir de sa zone de confort, briser les schémas de pensée habituels et ne pas craindre de défier les normes. Il n'est pas nécessaire de gaspiller de l'argent et des ressources - il convient de les utiliser judicieusement.
Comme d'autres LLM, DeepSeek R1 présente encore des lacunes évidentes en matière de raisonnement, de capacités de planification complexes, de compréhension du monde physique et de mémoire persistante. Par conséquent, il n'y a pas d'innovations révolutionnaires ici.
Il est maintenant temps pour les scientifiques de dépasser les LLM, de résoudre ces limitations et de développer un "nouveau paradigme d'architecture AI de nouvelle génération". Cela ne sera peut-être pas des LLM ou de l'IA générative - mais une véritable révolution.
Ouvrir la voie à l'innovation rapide
La méthode DeepSeek pourrait encourager les développeurs du monde entier, en particulier dans les pays en développement, à innover et à développer leurs propres applications d'IA, peu importe leurs ressources. Plus il y a de personnes impliquées dans le développement de l'IA, plus la vitesse d'innovation est rapide et plus il est probable d'atteindre des percées significatives.
Cela correspond à la vision de Nvidia : rendre l'IA abordable et permettre à chaque développeur ou scientifique de créer sa propre application IA. C'est exactement ce que signifie le projet DIGITS annoncé début janvier cette année : un GPU de bureau au prix de 3000 dollars.
L'humanité a besoin d'une "mobilisation générale" pour résoudre les problèmes urgents. Les ressources ne sont peut-être plus un obstacle - il est temps de briser les anciens paradigmes.
En même temps, le lancement de DeepSeek est également un rappel de la gestion des risques opérationnels et de l'IA responsable.
Lisez attentivement les termes
Tous les programmes ont des conditions de service, que le public a souvent tendance à ignorer.
Certains détails préoccupants dans les conditions de service de DeepSeek peuvent affecter votre vie privée, votre sécurité, voire votre stratégie commerciale :
Conservation des données : supprimer un compte ne signifie pas que les données sont supprimées - DeepSeek conserve toujours vos données.
Surveillance : L'application a le droit de surveiller, de traiter et de collecter les entrées et sorties des utilisateurs, y compris les informations sensibles.
Exposition légale : DeepSeek est soumis à la législation chinoise, ce qui signifie que les autorités nationales peuvent accéder à vos données et les surveiller sur demande - le gouvernement chinois surveille activement vos données.
Modifications unilatérales : DeepSeek peut mettre à jour les conditions à tout moment - sans votre consentement.
Controverses et litiges : toutes les réclamations et affaires juridiques sont régies par la loi de la République populaire de Chine.
Les actions susmentionnées violent manifestement le Règlement général sur la protection des données (RGPD) ainsi que d'autres violations de la vie privée et de la sécurité au titre du RGPD énumérées dans les plaintes déposées par la Belgique, l'Irlande et l'Italie, qui ont également temporairement interdit l'utilisation de DeepSeek.
En mars 2023, l'autorité de régulation italienne a temporairement interdit le lancement de ChatGPT d'OpenAI en raison de violations du RGPD, jusqu'à ce qu'il soit rétabli un mois plus tard après des améliorations de conformité. DeepSeek suivra-t-il également cette voie de conformité ?
Préjugés et censure
Comme d'autres LLM, DeepSeek R1 présente des hallucinations, des biais dans les données d'entraînement et montre un comportement conforme aux positions politiques chinoises sur certains sujets, comme la censure et la vie privée.
En tant qu'entreprise chinoise, c'est prévisible. La "Loi sur l'IA générative", applicable aux fournisseurs et utilisateurs de systèmes d'IA, stipule à l'article 4 : c'est une règle de révision. Cela signifie que les personnes qui développent et/ou utilisent l'IA générative doivent soutenir les "valeurs fondamentales du socialisme" et respecter les lois pertinentes de la Chine.
Cela ne signifie pas que d'autres LLM n'ont pas leurs propres biais et "agendas". Cela souligne l'importance d'une IA digne de confiance et responsable, ainsi que l'importance pour les utilisateurs de suivre une gestion rigoureuse des risques liés à l'IA.
Vulnérabilités de sécurité des LLM
Les LLM peuvent être sujets à des attaques adverses et à des vulnérabilités de sécurité. Ces vulnérabilités sont particulièrement préoccupantes car elles affecteront toute organisation ou individu utilisant des applications basées sur ce LLM.
Qualys a effectué des tests de vulnérabilité, une évaluation des risques éthiques et une évaluation des risques juridiques sur la version allégée de LLaMA 8B de DeepSeek-R1. Ce modèle a échoué à la moitié des tests de jailbreak - c'est-à-dire des attaques visant à contourner les mesures de sécurité et les normes éthiques intégrées au modèle d'IA.
Goldman Sachs envisage d'utiliser DeepSeek, mais doit effectuer un audit de sécurité, comme des tests d'injection et des tests d'évasion. Qu'importe si le modèle provient de Chine ou non, il existe des risques de sécurité pour toute entreprise avant d'utiliser des applications alimentées par des modèles d'IA.
Goldman Sachs met en œuvre des mesures de gestion des risques appropriées, et d'autres organisations devraient également imiter cette approche avant de décider d'utiliser DeepSeek.
Résumer l'expérience
Nous devons rester vigilants et diligents, en mettant en œuvre une gestion des risques adéquate avant d'utiliser tout système ou application d'IA. Pour atténuer les biais « d'agenda » et les problèmes de censure associés à tout LLM, nous pouvons envisager d'adopter une IA décentralisée, de préférence sous la forme d'une organisation autonome décentralisée (DAO). L'IA n'a pas de frontières, et peut-être est-il temps de réfléchir à l'élaboration de réglementations globales unifiées sur l'IA.
Auteur de l'opinion : Dr Merav Ozair
Articles connexes : comment la finance décentralisée (DeFi) peut réaliser un développement sécurisé et à grande échelle à l'ère de l'intelligence artificielle (IA)
Cet article est uniquement à des fins d'information générale et ne constitue ni ne doit être considéré comme un conseil juridique ou d'investissement. Les opinions, idées et commentaires exprimés dans cet article n'engagent que l'auteur et ne reflètent pas nécessairement les points de vue ou la position de Cointelegraph.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Depth Seek (DeepSeek) : un signal d'alarme pour l'innovation responsable et la gestion des risques
Source : Cointelegraph Texte original : 《 DeepSeek : un cri d'alarme pour une innovation responsable et la gestion des risques 》
Auteur de l'opinion : Dr Merav Ozair
Depuis son lancement le 20 janvier, DeepSeek R1 a attiré l'attention d'utilisateurs ainsi que de magnats de la technologie, de gouvernements et de décideurs politiques à travers le monde - des éloges aux doutes, de l'adoption aux interdictions, des brillances de l'innovation aux vulnérabilités de la vie privée et de la sécurité incommensurables.
Qui a raison ? Réponse brève : tout le monde a raison, et tout le monde a tort.
Ce n'est pas le "moment Spoutnik"
DeepSeek a développé un modèle de langage de grande taille (LLM) dont les performances peuvent rivaliser avec celles de GTPo1 d'OpenAI, tout en nécessitant seulement une fraction du temps et des coûts nécessaires à OpenAI (et à d'autres entreprises technologiques) pour développer leur propre LLM.
Grâce à une optimisation astucieuse de l'architecture, les coûts d'entraînement et d'inférence du modèle ont été considérablement réduits, permettant à DeepSeek de développer un LLM en moins de 600 000 $ en 60 jours.
En effet, DeepSeek mérite d'être reconnu pour sa recherche active de meilleures méthodes d'optimisation des structures de modèles et du code. C'est un signal d'alarme, mais cela ne peut en aucun cas être qualifié de "moment Spoutnik".
Chaque développeur sait qu'il existe deux façons d'améliorer les performances : optimiser le code ou "investir" une grande quantité de ressources de calcul. Cette dernière option est très coûteuse, c'est pourquoi les développeurs sont toujours conseillés de maximiser l'optimisation de l'architecture avant d'augmenter les ressources de calcul.
Cependant, avec la valorisation élevée des startups en intelligence artificielle et l'afflux d'investissements massifs, les développeurs semblent devenir paresseux. Si vous disposez de plusieurs milliards de dollars de budget, pourquoi prendre le temps d'optimiser la structure des modèles ?
Ceci est un avertissement pour tous les développeurs : revenir à l'essentiel, innover de manière responsable, sortir de sa zone de confort, briser les schémas de pensée habituels et ne pas craindre de défier les normes. Il n'est pas nécessaire de gaspiller de l'argent et des ressources - il convient de les utiliser judicieusement.
Comme d'autres LLM, DeepSeek R1 présente encore des lacunes évidentes en matière de raisonnement, de capacités de planification complexes, de compréhension du monde physique et de mémoire persistante. Par conséquent, il n'y a pas d'innovations révolutionnaires ici.
Il est maintenant temps pour les scientifiques de dépasser les LLM, de résoudre ces limitations et de développer un "nouveau paradigme d'architecture AI de nouvelle génération". Cela ne sera peut-être pas des LLM ou de l'IA générative - mais une véritable révolution.
Ouvrir la voie à l'innovation rapide
La méthode DeepSeek pourrait encourager les développeurs du monde entier, en particulier dans les pays en développement, à innover et à développer leurs propres applications d'IA, peu importe leurs ressources. Plus il y a de personnes impliquées dans le développement de l'IA, plus la vitesse d'innovation est rapide et plus il est probable d'atteindre des percées significatives.
Cela correspond à la vision de Nvidia : rendre l'IA abordable et permettre à chaque développeur ou scientifique de créer sa propre application IA. C'est exactement ce que signifie le projet DIGITS annoncé début janvier cette année : un GPU de bureau au prix de 3000 dollars.
L'humanité a besoin d'une "mobilisation générale" pour résoudre les problèmes urgents. Les ressources ne sont peut-être plus un obstacle - il est temps de briser les anciens paradigmes.
En même temps, le lancement de DeepSeek est également un rappel de la gestion des risques opérationnels et de l'IA responsable.
Lisez attentivement les termes
Tous les programmes ont des conditions de service, que le public a souvent tendance à ignorer.
Certains détails préoccupants dans les conditions de service de DeepSeek peuvent affecter votre vie privée, votre sécurité, voire votre stratégie commerciale :
Conservation des données : supprimer un compte ne signifie pas que les données sont supprimées - DeepSeek conserve toujours vos données.
Surveillance : L'application a le droit de surveiller, de traiter et de collecter les entrées et sorties des utilisateurs, y compris les informations sensibles.
Exposition légale : DeepSeek est soumis à la législation chinoise, ce qui signifie que les autorités nationales peuvent accéder à vos données et les surveiller sur demande - le gouvernement chinois surveille activement vos données.
Modifications unilatérales : DeepSeek peut mettre à jour les conditions à tout moment - sans votre consentement.
Controverses et litiges : toutes les réclamations et affaires juridiques sont régies par la loi de la République populaire de Chine.
Les actions susmentionnées violent manifestement le Règlement général sur la protection des données (RGPD) ainsi que d'autres violations de la vie privée et de la sécurité au titre du RGPD énumérées dans les plaintes déposées par la Belgique, l'Irlande et l'Italie, qui ont également temporairement interdit l'utilisation de DeepSeek.
En mars 2023, l'autorité de régulation italienne a temporairement interdit le lancement de ChatGPT d'OpenAI en raison de violations du RGPD, jusqu'à ce qu'il soit rétabli un mois plus tard après des améliorations de conformité. DeepSeek suivra-t-il également cette voie de conformité ?
Préjugés et censure
Comme d'autres LLM, DeepSeek R1 présente des hallucinations, des biais dans les données d'entraînement et montre un comportement conforme aux positions politiques chinoises sur certains sujets, comme la censure et la vie privée.
En tant qu'entreprise chinoise, c'est prévisible. La "Loi sur l'IA générative", applicable aux fournisseurs et utilisateurs de systèmes d'IA, stipule à l'article 4 : c'est une règle de révision. Cela signifie que les personnes qui développent et/ou utilisent l'IA générative doivent soutenir les "valeurs fondamentales du socialisme" et respecter les lois pertinentes de la Chine.
Cela ne signifie pas que d'autres LLM n'ont pas leurs propres biais et "agendas". Cela souligne l'importance d'une IA digne de confiance et responsable, ainsi que l'importance pour les utilisateurs de suivre une gestion rigoureuse des risques liés à l'IA.
Vulnérabilités de sécurité des LLM
Les LLM peuvent être sujets à des attaques adverses et à des vulnérabilités de sécurité. Ces vulnérabilités sont particulièrement préoccupantes car elles affecteront toute organisation ou individu utilisant des applications basées sur ce LLM.
Qualys a effectué des tests de vulnérabilité, une évaluation des risques éthiques et une évaluation des risques juridiques sur la version allégée de LLaMA 8B de DeepSeek-R1. Ce modèle a échoué à la moitié des tests de jailbreak - c'est-à-dire des attaques visant à contourner les mesures de sécurité et les normes éthiques intégrées au modèle d'IA.
Goldman Sachs envisage d'utiliser DeepSeek, mais doit effectuer un audit de sécurité, comme des tests d'injection et des tests d'évasion. Qu'importe si le modèle provient de Chine ou non, il existe des risques de sécurité pour toute entreprise avant d'utiliser des applications alimentées par des modèles d'IA.
Goldman Sachs met en œuvre des mesures de gestion des risques appropriées, et d'autres organisations devraient également imiter cette approche avant de décider d'utiliser DeepSeek.
Résumer l'expérience
Nous devons rester vigilants et diligents, en mettant en œuvre une gestion des risques adéquate avant d'utiliser tout système ou application d'IA. Pour atténuer les biais « d'agenda » et les problèmes de censure associés à tout LLM, nous pouvons envisager d'adopter une IA décentralisée, de préférence sous la forme d'une organisation autonome décentralisée (DAO). L'IA n'a pas de frontières, et peut-être est-il temps de réfléchir à l'élaboration de réglementations globales unifiées sur l'IA.
Auteur de l'opinion : Dr Merav Ozair
Articles connexes : comment la finance décentralisée (DeFi) peut réaliser un développement sécurisé et à grande échelle à l'ère de l'intelligence artificielle (IA)
Cet article est uniquement à des fins d'information générale et ne constitue ni ne doit être considéré comme un conseil juridique ou d'investissement. Les opinions, idées et commentaires exprimés dans cet article n'engagent que l'auteur et ne reflètent pas nécessairement les points de vue ou la position de Cointelegraph.