ChatGPT使用でデータ流出リスク——Telkomが社内専用AIを既に導入、外部AI規制の必要性を訴え
インドネシアの通信大手PT Telkom Indonesiaが、2026年3月2日に外部AIサービス利用によるデータ漏洩リスクを警告しました。
同社はすでに社内専用のAIチャットプラットフォームを開発・運用しており、ChatGPTなどの公開AIに社内文書を入力しないよう従業員に警告しています。
外部AIサービス利用によるデータ漏洩リスクへの対応
記事によると、Telkomは人工知能(AI)の一般利用の急増を受けて、データ漏洩を防ぐための
対策として社内チャットボットプラットフォームをすでに構築・運用しています。特にChatGPTやGeminiなどの類似アプリケーションを通じたデータ流出のリスクを懸念しており、これらの外部サービス利用に伴う情報セキュリティ上の課題に対処することが目的とされています。
社内専用プラットフォーム導入の背景
従業員が業務上でAIツールを使用する際に、機密情報や企業データが外部のAIプラットフォームに送信されることで、意図しない情報漏洩が発生するリスクが高まっています。Telkomの取り組みは、こうした外部依存によるセキュリティリスクを回避し、企業内でのAI活用を安全に実現するための予防的措置として位置づけられています。
企業におけるAI利用の安全性確保
一般的に、企業が外部のAIサービスを利用する際には、入力されたデータがサービス提供者のサーバーに保存・学習データとして使用される可能性があります。特に機密性の高い業務情報や顧客データを扱う通信事業者にとって、こうしたデータの外部流出は重大なリスクとなります。社内専用のAIシステムを構築することで、データの処理と保存を企業内で完結させ、外部への情報漏洩を防ぐことが可能になります。
通信業界におけるセキュリティ対策の重要性
通信事業者は大量の顧客情報やネットワークインフラに関する機密データを保有しており、情報セキュリティは事業継続の根幹に関わる重要課題です。Telkomの取り組みは、AI技術の業務活用とセキュリティ確保を両立させる先進的な事例として、他の企業にとっても参考になる可能性があります。従業員の生産性向上とデータ保護を同時に実現する仕組みの構築は、今後多くの企業が直面する課題となることが予想されます。
短期的影響:企業内でのAI利用における情報セキュリティ意識が高まり、外部AIサービスの利用に慎重になる企業が増加する可能性があります。特に機密性の高いデータを扱う業界では、社内AI開発への投資が加速することが予想されます。
中長期的影響:企業向けプライベートAIソリューションの市場が拡大し、セキュリティを重視したエンタープライズAI製品の開発競争が激化する可能性があります。また、AI利用に関するガバナンスやコンプライアンス体制の整備が業界標準として定着することが期待されます。
読者への示唆:自社でAIツールを利用する際は、機密情報の取り扱いについて明確なガイドラインを策定し、従業員への教育を徹底することが重要です。また、外部AIサービス利用時のデータ処理方針を確認し、必要に応じて社内専用システムの検討も視野に入れるべきでしょう。


