によって開発されたDeepSeek R1モデル同名の中国人工知能会社、議論を続けます。シリコンバレーとウォールストリートを揺さぶった後、彼の効率性とオープンソースのアプローチのために、深刻なセキュリティ上の懸念が現れています。 The Wall Street Journalの調査によると、このモデルは、Jailbreakingまたは人工知能の有害または違法なコンテンツを生成することを目的とした操作に対して特に脆弱であることが証明されています。
サム・ルービン、部門の上級副会長パロアルトネットワークのユニット42ITセキュリティを専門としていると、DeepSeekは危険な要求に対応する際に「他のモデルよりも脆弱」であると述べました。会社が採用した保護対策に疑問を呈する重い告発。
ウォールストリートジャーナルがリードしましたDeepSeek R1チャットボットで直接テストされています、心配な結果を得る。基本的な保護を示している間、このモデルは、感情的な脆弱性を活用することでティーンエイジャーを操作することを目的とした危険な社会キャンペーンを設計することを納得させました。
さらに驚くべきことは、Deepseek R1が生成したという事実です生物兵器による攻撃の詳細な指示、プロヒットラーマニフェストを書いて、悪意のあるコードを含むフィッシングメールを作成しました。比較のために、chatgptに同じ入力を提供することにより、Openiiのチャットボットはカテゴリー的に応答を拒否しました。これは、DeepSeek R1に、最も確立されたモデルと同等に堅牢な倫理的およびセキュリティ障壁がないことを示しています。
検閲と安全の問題
のモデルdeepseek彼はすでに中国でのデリケートな問題の管理について過去に議論を提起してきました。それは報告されていますこのアプリは、天津の広場や台湾の自律性などのトピックを回避します、北京が課した検閲への明確な順守を示しています。
ただし、グローバルなセキュリティ面では、懸念が増加します。 AnthropicのCEOであるDario Amodei氏は、Deepseek R1は、生物兵器に関連する安全性の調査でテストされたモデルの「最悪」であると述べました。