膨大なデータから発見を導くことに特化しているFRONTEOの自社開発AIの「KIBIT(キビット)」は、LLM(大規模言語モデル)やLLMベースのChatGPTをはじめとする生成AIとは一線を画する、独自の特長をもっています。
独自技術のベクトル化
多くの特許からなる独自アルゴリズム
データを直感的にビジュアライズ
省エネのGreen Micro AI
KIBITでは、自然言語(人の言葉)をAIで解析するために欠かせない「ベクトル化」、つまり言葉の数値へ置き換えにおいて、分布仮説*1に忠実に独自技術を開発していることが大きな特長の一つです。
これは専門的に言えば「語の共起関係に基づいて単語や文の関連性を捉える」手法です。分布仮説に由来する手法でベクトル化を行うアプローチは、生成AIなどで広く使われるTransformerよりも結果が良いことが裏付けられています*2。
文書(自然言語)やネットワークの高度な解析を行うために、生成AIで広く用いられるTransformer* とは異なる独自アルゴリズムを開発しています。文脈を捉えるための単語パターンの解析や、語への適切な重み付け、そして特徴量の最適化など、アルゴリズムやデータの解析・可視化手法などに関わる70以上の自社特許を駆使して、高い精度で最適な解析結果を出力できます。
さらにAIを搭載するソフトウェアまで自社開発で提供しているので、企業のデータや課題に合わせたカスタマイズや追加開発を行いながら実装することができます。
* Transformer(トランスフォーマー): ディープラーニングのモデルの一つで、2017年に発表された自然言語処理の手法。
KIBITでデータを解析した結果は、ただ出力するだけでなく「ビジュアライゼーション」、つまり可視化することでその価値をさらに高めることも重視しています。
適切に処理したデータ* を平面上にプロットして人が視覚的に認識できる「2次元マップ」とすることで、色や散らばり具合などの表現を通して情報どうしの作用や関連まで見渡すことができるため、ただの解析では見逃してしまう予想外の情報をも発見する「セレンディピティ」にもつながります。
各方面からの期待が高まる生成AIは、実は大量の電力を消費すること、それに伴うCO2の排出や水の消費の観点などが指摘されています。
一方のKIBITは、最小限のパラメーターでシンプルなアルゴリズムをもつ(=Micro)、省電力で環境にやさしい(=Green)AIです。データセンター並みのGPUではなく通常のPCのCPUレベルで、極めて省電力で高速にデータを解析・学習できるのが強みです。