AIを活用した不正検知サービスやサイバーセキュリティーサービスを開発・提供している株式会社ChillStack。
同社の代表を務めるのは、国際セキュリティーコンテストでの優勝経験もある伊東道明さんです。
U-NOTE編集部は、伊東さんに、AIを使ったサイバー犯罪の現状や今後、個人や企業としてできる対策は何かを聞きました(全3回中1回)。
AIで守り、AIを守る企業・ChillStackとは?
―――まず、御社の業務内容をお伺いしてもよろしいでしょうか?
弊社は、“AIセキュリティー”を柱とし、技術を使っていろいろなソリューションを作って、お客様に提供する事業を行っている会社です。
AIセキュリティーとひと言で言っても広いんですが、大きく2つに分けられます。
AIを活用して不正や異常の検知をするようなセキュリティーシステムをつくっていく「AI for Security」が1つ。
もう1つとして、そのAIを安全に使えるよう(攻撃から)守る「Security for AI」です。
―――AIをサイバー攻撃から守るための知識やノウハウを提供するeラーニング(インターネットを通じて行う学習や研修)事業も行っていらっしゃいますね。
はい。三井物産セキュアディレクション様と共同で提供しています。eラーニングに加えて、現地でのハンズオントレーニング(実践を交えた研修)も合わせて提供しています。
―――今、世界において生成AIはかなり発展してきています。
皆さんご存知の通り、OpenAI社のChatGPTをはじめとして、Google社のBardなど、各社がLLM(大規模言語モデル=大量のテキストデータを処理し、予測や応答を生成する能力を持つAIの一種)を活用した生成AIサービスを開発・提供しています。
直近だとChatGPTを使った「GPTs」というツールを作るなど、(生成AIを)利活用する方向にどんどん発展してきていて、業界全体がすごく盛り上がっていると感じます。
日本も今ようやくChatGPTを使う基盤を整えて、業務にも利用し始めている会社も増えてきた状況だと思います。
―――毎日ネットで生成AIを活用したサービスがたくさん発表されていて、ちょっと追い切れない部分もあるなと思います(笑)。
本当におっしゃる通り、追い切れないところがあって(笑)。
ChatGPTもその1つなんですけど、AIの開発や利活用がしやすい環境が整ってきているんです。それもあいまってですね。
―――環境が整っている分、悪い人も使いやすいってことですね。
おっしゃる通りです。たとえば、「WormGPT」と呼ばれるものもあります。
ChatGPTには、悪いことができないよう、コンテンツポリシーに反することを応答しないようにする「Guard Rail」という機能があるんですが、WormGPTにはGuard Railのような制御機能が存在しないため、簡単に悪用することができるんです。
AI時代に起こりうるサイバー犯罪とは?
―――“悪いこと”として、具体的にはどういった例があるのでしょうか?
たとえば、ChatGPTにマルウェア(コンピューターや利用者に被害を与えることを目的とした悪意のあるソフトウェア)をつくってくださいとお願いしても、倫理観に反するとして、つくれません。
しかし、WormGPTを使ったり、Jail Break(ジェイルブレイク)やPrompt Injection(プロンプトインジェクション)と呼ばれる生成AI用の攻撃をChatGPTなどに対して行ったりすれば、「こういうソースコードをコピペ(コピー&ペースト)すれば作れますよ」と答えてしまう。
(ほかにも)スパムメールをつくることなどもできます。こういったものは、今誰でも使えるんじゃないかと思います。
―――そんなに身近になっているんですか?
そうですね。
一般公開されているサービスのほかにも、最近出てきたオープンソース(ソースコードを無償で一般公開し、誰でもソフトウェアの改良や再配布ができるようになること)のGPTもカスタマイズができてしまうので、悪用されることも考えられます。
もしかしたら、もう世界のどこかで使われているかもしれませんが、裏は取りづらいです。
―――サイバー犯罪も進歩したということですかね。
(サイバー犯罪が)高度化したというよりは、できなかった人が簡単に攻撃できるようになってしまったという。そちらの方が影響は強いですね。
―――文章で指示すれば、すぐそういったことができてしまうと。
おっしゃる通りです。
―――AI自身に対してサイバー攻撃をするパターンとしては、どのようなものがあるのでしょうか。
たくさんのケースがあります。たとえば、AIをつくるフェーズにおいては、データを収集し、集めたデータに対してラベルを付けて、学習して、デプロイ(アプリケーションやサービスを利用可能な状態にすること)するといったフローがあるんですが、それぞれの段階で攻撃ができるんです。
データを漏洩させたり、AIを誤動作させたり、たくさんの攻撃の仕方があります。
日本でAIによるサイバー犯罪が増える?
―――日本でAIを活用したサイバー犯罪、もしくはAIに対する攻撃のケースは広まっていく可能性はあるのでしょうか。
もうすでにスパムメールなどは生成AIを活用していると思いますし、今まで僕らが難解な言語特性を持った「日本語」という高い壁に守られてきたものがなくなり、海外の人でも容易に攻撃できるので、国内でそういった事件や例は、これからどんどん増えていくんじゃないかなと思います。
iPhoneのSiri、AmazonのEchoといったAIを使った音声認識や、自動運転で物体を認識して緊急停止するという安全装置で活用しているシステムなどへの攻撃手法も研究レベルではすでに多数発表されています。
今後、実際の被害も出てくるのではないでしょうか。
日本国内では、心理的な側面も含めてリスクの小さいところなどにしかAI技術は使われていない印象があります。
良くも悪くも中国やアメリカなどと比較するとAIの普及が遅れている分、リスクマネジメントできる環境整備を進めている状況です。
個人や企業ができる対策とは
―――AIを使った、もしくはAI自体に対するセキュリティーリスクに対応するために、個人や企業はどういった対策を講じることができるでしょうか?
基本的には、AIが発展してきたからといって、これまでと対策の方針は大きく変わりません。
個人の視点では、検索した情報が正しいかどうか、迷惑メールかどうかを判断する基本的なITリテラシーをきちんと高めることが重要だと思っています。
企業の視点では、AIを利用する側、提供する側のどちらの立ち位置も可能性としてあると思います。例えば利用する側なら、どういったリスクがあるのかを押さえたうえでAIを利用する際のワークフローを組まなくてはいけません。
提供側としては、AIのリスクと安全性に関する知識を継続的にアップデートして、セキュリティー性の高い環境を維持することが大切だと思います。
日本にクラウドという概念が来たときも、「いやいや、よく分からないし危険そうだからオンプレミス(自社でサーバーや機器を保有し、管理すること)の方が良い」と言われていたことがあったと思うんですが、きちんとクラウドに対する知識をつけて、正しく使えば、セキュア(セキュリティが確保されている)に使うことができます。
今では、デジタル庁が「ガバメントクラウド」としてAWS(Amazonが提供するクラウドコンピューティングサービス)やGCP(Googleが提供するクラウドコンピューニングサービス)を選定するなど、海外のクラウドを使っている政府のシステムもあります。
新しい技術が出てきたら漠然と不安を感じるだけで終わらずに、きちんと理解することにコストをかけるべきなんじゃないかなと思います。
第2回「AIの回答精度が100%になる日は来ない? 生成AI時代、我々はどう生きればよいのか ChillStack代表・伊東道明さんインタビュー(2)」に続く
【関連記事】
中国ユニコーン企業がAIとEコマースに強いワケとは 日中の“オープンイノベーション”を推進するコンサルティング企業「匠新」代表・田中年一さんインタビュー(2)
中国・上海及び深センと東京に拠点を置き、日本と中国の企業に対してコンサルティングサービスなどを展開する会社「匠新(ジャンシン)」の代表を務める田中年一さん。 社外の知識やアイデア、技術など...
明治安田生命が導入する2つの自動化 生成AI活用で作業時間を約30~40%縮小へ
明治安田生命保険相互会社(以下、明治安田生命)は、生成AIを活用した社内業務の効率化の取り組みを開始しました。 大規模言語モデル(大量のテキストデータを処理し、予測や応答を生成する能力を持...
聴覚障がい者も交えた複数人の会議をスムーズに 落合陽一らが代表を務める会社が開発、聞こえの違いをつなぐサービス「VUEVO」とは
聴覚障がい者と聴者の間には、聞こえの違いによって、会議など複数人でのコミュニケーションが難しいという課題があります。 その課題を解決するために開発されたのが「VUEVO(ビューボ)」。 ...
U-NOTEをフォローしておすすめ記事を購読しよう