うっかり見逃していたけれど、ちょっと気になる――そんなニュースを週末に“一気読み”する連載。今回は、3月17日週を中心に公開された主なニュースを一気にチェックしましょう!

●次期永続ライセンス版の「Microsoft Office 2024」が2024年後半に

 Microsoftは3月15日(現地時間)、次期永続ライセンス版Officeとなる法人向けの「Microsoft Office LTSC 2024」、および個人向けの「Microsoft Office 2024」の一般提供を2024年後半に開始すると発表した。

 現在、Office製品はサブスクリプションでクラウドベースの「Microsoft 365」に移行しているが、年単位で機能更新ができない規制対象デバイスや、ネットに接続されていない製造現場のプロセス制御デバイス、組み込みアプリを実行する医療検査機器などの特殊システムでは利用が難しい。

 Microsoftではこうしたシステムに向けて、従来からLong-Term Servicing Channel(LTSC)として永続ライセンス版の提供を行っていた。なお、ライセンスは永続だが、サポートは5年間となる。

 Office LTSC 2024 には、過去のリリースに含まれていた機能を元にしながら、Microsoft 365の一部機能を実装した。新機能には、Outlookでの新しい会議作成オプションと検索機能の強化、動的グラフや配列を含む数十の新しいExcel機能と関数が含まれている。

 一方で、廃止される「Publisher」や個別にダウンロード可能な「Teams」は付属しない。また、オンプレミス製品のため、リアルタイムコラボレーションなどのクラウドベースの機能やWord、Excel、PowerPointでのAIによる自動化機能は提供されない。

 なお、日本国内での価格はまだ分からないが、Office LTSC Professional Plus、Office LTSC Standard、Office LTSC Embedded、および個々のアプリの価格を最大10%値上げするとのことだ。一般向けのOffice 2024については、発売時点での価格変更の予定はないとしている。

●SK hynixがAI向け次世代DRAM「HBM3E」の量産を開始

 韓国SK hynixは3月19日(現地時間)、AI向けの次世代DRAMとなる「HBM3E」の量産を開始し、3月下旬から出荷すると発表した。

 HBM3Eは、HBM(High Bandwidth Memory/広帯域メモリ)の第5世代にあたる製品だ。複数のDRAMチップを垂直に相互接続することで、従来のDRAM製品と比較してデータ処理速度を飛躍的に向上させている。大量のデータを高速に処理する必要があるAI分野では、HBMの需要が高まっており、AI処理に利用されるGPUでもHBMの採用が増えている。2月末にはMicronとSamsungもHBM3Eの量産/サンプル出荷を発表していた。

 SK hynixのHBM3Eは、最大毎秒1.18TBの転送速度を実現した。これは、1秒当たり230本以上のフルHD映画(各5GB)を処理するのに相当するとのことだ。また、放熱面に関してもチップを積層し、チップ間に液体保護剤を注入するMR-MUF(Mass Reflow Molded Underfill)を採用。前世代と比較して、放熱性能が10%向上したとしている。

●Appleの研究者たちがマルチモーダルLLM「MM1」の論文を発表

 Appleは3月14日(現地時間)、独自のマルチモーダル大規模言語モデル(MLLM)である「MM1」と、それを構築する上で行った学習方法に関する論文を発表した。

 Appleの研究チームは、まず高性能なMLLMを構築するために、モデル構造や学習データがモデルの性能にどのように影響するかを検証した。その結果、画像とキャプション、画像とテキストが混ざったインターリーブ画像テキスト、テキストのみのデータを注意深く組み合わせることが高い性能を発揮するために重要であることを実証。画像エンコーダーと画像解像度、画像トークン数が大きな影響を与える一方、視覚言語コネクターの設計は無視できるほど重要ではないことが分かったとしている。

 こうして得られた知見をもとに、最大30B(300億)のパラメーターを持つ独自のMLLM「MM1」を構築した。事前学習指標において、SOTA(現時点で最高レベル)であり、ファインチューニング後のモデルでは、さまざまなマルチモーダルベンチマークで競争力のある性能を示したという。

 なお、MM1に関しては、そのアーキテクチャなどの詳細は公開されない。論文では「ここで得られた知見が、特定のモデルアーキテクチャやデータ戦略を超えて、コミュニティーが強力なモデルを構築する際に役立つことを期待している」と結んでいる。

●macOS Sonoma 14.4のアップグレードでJavaがクラッシュ 回避策は現状なし

 Oracleは3月15日(現地時間)、macOS 14.4へアップグレードした環境で、Javaプロセスがクラッシュする不具合が発生しているとして、公式ブログ上で注意喚起を行っている。

 この問題は、AppleがリリースしたmacOS Sonoma 14.4を適用した「Apple Silicon」(M1/M2/M3)搭載のMacで発生する。Java 8からJDK 22の早期アクセスビルドまでの全てのJavaバージョンに影響しており、現時点では回避策はなく、macOSのアップデート前のバックアップがない限り、安定した構成には戻せない可能性があるとしている。

 Oracleによると、この問題はmacOS 14.4の早期アクセスリリースでは存在せず、Appleが正規リリース後に初めて発覚したとのことだ。Java仮想マシンはコードを動的に生成し、正確性とパフォーマンスの両方のために保護されたメモリ領域にアクセスすることがある。この際にmacOSカーネルがプロセスに送信するシグナルがmacOS 14.4で変更になっており、これが原因でプロセスが無条件に終了してしまうようになったという。

 既に顧客やApple、OpenJDKパートナーに状況を通知しているが、この問題が解決するまでは、JavaユーザーはmacOS 14.4へのアップデートを延期することを勧めている。

●イーロン・マスク設立の米xAIがLLM「Grok-1」をオープンソース公開

 イーロン・マスク氏が設立した米AI企業のxAIが3月17日(現地時間)、大規模言語モデル(LLM)「Grok-1」の基本モデルのウェイトとネットワークアーキテクチャをApache 2.0ライセンスに基づくオープンソースとして公開した。

 Grok-1は、314B(3140億)のパラメーターを持つMixture-of-Experts(MoE)モデルで、特定のトークンに対して25%のウェイトがアクティブになるという。「JAX」と「Rust」上のカスタムトレーニングスタックを使用してxAIがゼロからトレーニングを実施した。

 なお、公開されたのは、2023年10月に終了したGrok-1の事前学習フェーズからの生の基本モデルチェックポイントで、特定のタスク向けにファインチューニングは行われていない。

●YouTubeに「改変・合成コンテンツ」の開示/表示機能ツールを導入

 YouTubeは3月19日、改変または合成されたメディア(生成AIを使用したものを含む)で作成したコンテンツであることを開示するよう、クリエイターに求める新たなツールをYouTube Creator Studioに導入すると発表した。

 視聴者にはラベルとして表示され、まずはスマートフォン向けのYouTubeアプリから実施される。その後、PCやTVで視聴するYouTubeにも順次展開される予定だ。ほとんどの動画ではラベルは概要欄に表示されるが、医療/健康、ニュース、選挙、金融などのトピックを扱う動画の場合は、より目立つようにラベルを表示するという。

 なお、生成AIを利用していたり、少しでも改変したりしたらラベル付けが必要というわけではない。ラベル付けが必要となるのは、以下のような場合だ。

・実在する人物のように見せている:デジタル改変により、ある人物の顔を実在する別の人物の顔に置き換えたり、合成した人物の声を動画のナレーションに使用したりしているコンテンツ

・実際の出来事や場所の映像を改変している:実在する建物で火事が発生しているように見せたり、実在する都市景観を実際とは違って見えるよう改変したりしているコンテンツ

・現実的な風景を生成している:実在する都市に向かって移動している竜巻など、架空の大きな事件をリアルに描写したコンテンツ

 合成したメディアが非現実的なものである場合や、生成AIを使用して背景をぼかしたり、色の調整などをしたりした場合など、改変の重要度が低い場合はラベル付けの必要はない。

 新たなプロセスと機能に慣れるために猶予期間は設けるが、将来的には、一貫してこの情報を開示しないクリエイターに対する措置も検討するとしている。また、改変あるいは合成されたコンテンツが混乱や誤解を生む可能性がある場合、クリエイターが情報を開示していなくてもYouTubeがラベルを追加する場合もあるとのことだ。