メインコンテンツへスキップ
最新ニュース 3分で読める

クラリス、FileMaker 2025でAI強化 ローカルLLM活用で企業データを安全管理

PlusWeb3 編集部
PlusWeb3 編集部 Web3・AI専門メディア

2025年7月9日、Claris Internationalはローコード開発プラットフォーム「Claris FileMaker 2025」の提供を開始した。AI機能を大幅に拡充し、ローカル環境での大規模言語モデル(LLM)活用により企業データの安全性確保を図る。

FileMaker 2025、AIとRAGで業務効率を飛躍的に向上

Claris FileMaker 2025は、AIを活用したカスタムアプリケーション構築機能を中心に刷新された。新バージョンでは、ユーザーがFileMaker内のデータをもとにAIに自然言語で質問し、即座に回答を得られるほか、検索拡張生成(RAG)(※)機能を使い外部ドキュメントに基づく情報提供も可能になった。

さらに、ファインチューニング機能により企業独自のデータでAIモデルを再学習でき、特定業務に最適化したAI活用が実現する。回帰モデルを用いた予測分析機能も搭載し、将来の業績予測や需要予測などに応用できる設計だ。
また、オンプレミスでAIを活用することで、企業は機密データを外部クラウドに送信せずに済み、情報漏洩リスクを大幅に低減できる。

開発者向けには、ドラッグ&ドロップ操作でチャットボットを実装可能なアドオンが用意される予定だ。これにより、ノーコード・ローコード開発の柔軟性を保ちながらAIの高度利用が可能になる。

※検索拡張生成(RAG):大規模言語モデルの回答精度を高めるために、外部データベースやドキュメントから関連情報を検索・抽出し、生成AIの出力に組み込む技術。

ローカルLLMによるデータ保護が企業内活用の促進につながるか

Claris FileMaker 2025の最大の強みは、ローカル環境での大規模言語モデル(LLM)運用を可能にした点だといえる。プライバシー保護やコンプライアンス遵守が厳格に求められる金融・医療業界にとっては特に有効なアプローチであると思われる。

一方で、ローカルLLMの運用には相応のハードウェアリソースが必要であるため、中小企業にとって初期投資や運用負荷が課題となる可能性がある。
また、AIモデルのファインチューニングや回帰分析といった高度な機能は、非技術者には扱いづらく、現場での活用が限定的になる恐れもある。
AI統合が進むことで業務フローが複雑化し、従来のFileMakerユーザーが適応しきれないリスクも想定される。

加えて、ローカル環境でのAI運用はアップデートや保守管理が企業側の責任になるため、技術的支援体制の有無が、導入可否を左右する要因になるだろう。

Share this article コピーしました
WRITTEN BY

PlusWeb3 編集部

Web3・AI専門メディア

PlusWeb3 編集部は、ブロックチェーン・Web3・AIの最新動向をわかりやすくお届けする専門メディアチームです。業界経験豊富な編集者とリサーチャーが、信頼性の高い情報を厳選してお届けします。

記事を寄稿しませんか?

Web3・AI領域の専門家からの寄稿を募集中。掲載は編集部名義、内容は事前審査のうえ掲載可否をご連絡します。

この記事が役に立ったら、ニュースレターも登録しませんか?

Web3・AI業界の厳選ニュースを定期配信。いつでも解除可能。

スパムは送りません。プライバシーポリシーに基づいて管理します。

コピーしました

Web3・AI・DeepTech領域でのキャリアをお考えですか?

業界専門のコンサルタントが、あなたに最適なキャリアパスをご提案します。