最近、話題となっている「ChatGPT」。ChatGPTは生成AIと呼ばれるもののひとつであり、このChatGPTのお陰で、私たちにとってAIはより一般的で身近なものへとなりました。
ちなみに、生成AIとはIT分野を中心とした調査・助言を行うガートナー社によると「コンテンツやモノについてデータから学習し、それを使用して創造的かつ現実的な、まったく新しいアウトプットを生み出す機械学習手法」と定義しており、自ら学習し新しいものを生み出す人工知能のことです。
生成AIは、ビジネスだけでなく、私たちの生活の中にも色々な場面で活用され、一般的なものとして扱われるようになってきました。
しかし、そんな生成AIにも扱う上でリスクもあるのです。今回は、私たちも知っておくべき、生成AIを利用する上でのリスクについて解説していきます。
生成AIにおける知っておくべきセキュリティ上のリスク
私たちが生活の中で分からないことを調べたり、仕事上でも文章を考えてくれたりなど、とても便利な生成AIですが、一方で、生成AIの機能性ゆえのセキュリティ上でのリスクもあります。では、一体どのようなリスクがあるのでしょうか。
情報漏洩リスク
生成AIでは先でも述べた通り、私たちが入力したり伝えたりしたことをAIが学習し、AI自身が持つ知識とすることで、別の形でのアウトプットを可能にするものです。現在、その便利さから、仕事上でも活用されていますが、こちら側が入力した内容に機密情報や個人情報が含まれている場合、その情報も生成AI側に収集されてしまう可能性があります。
この点においては、普段利用しているGoogleやYahoo!などの検索エンジンでも同様のリスクはあるものの、生成AIの場合はAIが学習し、得た情報を別の利用者の回答の材料としてしまう可能性があるため、情報漏洩に繋がるのではないかと指摘されています。
サイバー攻撃によるリスク
機能性の高さから、生成AIがフィッシングメールなどのサイバー攻撃に利用される可能性も拭えません。今まで、海外からのフィッシングメールは、多くの場合、メールの文章が稚拙な日本語であることからそのメールの信憑性を疑うことができましたが、生成AIが活用された場合、日本語の話せない外国人であっても、自然な日本語の文章が生成でき、文章の稚拙さでフィッシングメールかどうかを判断することができなり、受け取ったメールがサイバー攻撃であるという見分けがつきにくくなる恐れがあります。
悪用を前提として支援ツールとして活用されるリスク
また、生成AIが作成できるのは文章だけではありません。生成AIでは、マルウェアのプログラムも生成することができます。
ちなみにマルウェアとは、悪意を持ったソフトウェアの総称のことで、よく聞くウイルスもマルウェアの一種です。マルウェアに感染してしまうと、パソコン内のデータが破壊されたり、顧客情報や機密情報が持ち出されたりするなどの被害を受けてしまいます。
生成AIを使うことで、このようなマルウェアを簡単に生成することができてしまうのです。
このように詐欺などの悪用のために生成AIを利用されるケースもあることを私たちも知り、事前に対策していくことが必要です。
遅れをとっているAIに対するセキュリティ対策
AIは驚異的なスピードで日々進化しています。それと同時に悪用する側のリテラシーも高くなっていて、私たち利用者側のセキュリティ対策が遅れをとってしまっているのが実情です。
現在、情報漏洩などのリスクを考え、生成AIの利用を禁止している企業も出始めています。リスクも考慮した上で生成AIを利用する際の対策のひとつとしては、企業側で社員の投稿内容を監視、制御することです。実際、製品の一部ではChatGPTなどの生成AIの利用時の通信を可視化し、機密情報などの重要な情報を含む場合であれば、事前に投稿をブロックするという動作が実現可能にはなっていますが、そうしたことも踏まえ、生成AIの進化や状況の変化によって先回りし、セキュリティ対策を考えていく必要があるでしょう。
まとめ
私たちの生活を豊かにするために開発されているはずの生成AIですが、残念ながらそれを悪用する人もいます。このような現実の中で、生成AIの利便性を最大限活用しながらも、被害を受けないようにするためには、私たちが事前にセキュリティ対策を考え、行動していくことが必要ではないでしょうか。