アップルは24日、新たな言語モデル「オープンELM」(エフィシェント・ランゲージ・モデル)を発表した。同モデルは従来のモデルと比べて、事前学習に使用するトークン数を半分に削減しつつ、精度を2.36%向上させていることが特徴。オープンELMは、レッドパジャマ、ドルマセットといった公開データセットを利用してトレーニングされ、異なるパラメータ構成を持つ複数のモデルが提供されている。モデルは、2億7000万、4億5000万、11億、30億のパラメータを持つバリエーションで展開されており、ハギングフェイスプラットフォームでアクセス可能である。
関連記事:アップル、次期iOSでiPhoneに生成系AIを導入が濃厚か
- パラメータ: AIが学習や予測を行う際の内部の設定や調整値を指す。AIの「知識」や「経験」を形成する要素の一部。
- レッドパジャマ: 公開データセットの1つで、機械学習モデルのトレーニングに使用される。
- ドルマセット: 別の公開データセットで、様々なソースからのデータを含み、機械学習のトレーニング用に利用される。
- ハギングフェイスプラットフォーム: AIモデルを共有・実行するためのオープンソースのコミュニティプラットフォーム。
- MLXライブラリ: アップルデバイス上で機械学習モデルを効率的に実行するためのフレームワーク。
同リリースにより、アップルは開発者がアップルデバイス上で直接モデルを実行できるようにするためのMLXライブラリ変換コードも提供している。これは、モバイルアプリやIoTデバイスでのオンデバイスAI処理を効率的に行うことを可能にする・
アップルは、公開データセットでのトレーニングと評価のフレームワーク策定などのアプローチも行っており、トレーニングログ、複数のチェックポイント、事前学習の設定が公開されている。これにより、研究の再現性と透明性が高まり、データやモデルの偏見、潜在的なリスクの調査が容易になる。
関連記事:アップル、米大学UCSBとともにAI画像編集ツール「MGIE」を公開
一方で、アップルはこのソフトウェアリリースがオープンソースライセンスとして認められていない点、また派生作品がアップルの権利を侵害すると見なされる場合には特許請求権を行使する権利を保留している点を明らかにしている。
アップルのオープンELMは、実装上の選択により基準の一つであるOLMoと比較してパフォーマンスが劣る場合があるが、将来的にはさらなる最適化を探求する計画である。アップルの、ティム・クックCEOは年内にも、重要なAI発表を予定しており、アップルのプラットフォームに新たなAI機能をで導入すると約束している。一方でブルームバーグの3月の報道によると、アップルとグーグルは、iPhoneのソフトウェアにGoogleの生成AI「Gemini」を組み込むための交渉を進めている。
Follow us on:
X(Twitter):@BeInCryptoJapan
Telegramチャンネル:@BeInCrypto Japan オフィシャルチャンネル
免責事項 - Disclaimers
当ウェブサイトに掲載されているすべての情報は、誠意をもって作成され、一般的な情報提供のみを目的としています。当ウェブサイトに掲載されている情報に基づいて行う一切の行為については、読者ご自身の責任において行っていただきますようお願いいたします。
