GMOインターネットグループ デベロッパーエキスパートの市川(@Yoshihiko_ICKW)です。2024年03月02日(土) 第32回 人工知能学会 金融情報学研究会(SIG-FIN)@東京大学に参加してきました。目的は、ファイナンス分野への人工知能技術の応用研究の調査のためです。ChatGPTのファイナンスへの応用の話も多かったです。よろしければご覧ください。(文章の作成に当たっては、一部Chat-GPTを利用しました)
イベントの概要
人工知能学会 金融情報学研究会(SIG-FIN)は人工知能学会の第二種研究会です。
詳細は上記リンクに譲るのですが、近年より広い方々の金融市場への関心が高まっています。このような背景で、ファイナンス分野への人工知能技術の応用を促進するための研究会になります。人工知能分野の研究者や金融市場の現場の技術者が参加する、大変ユニークな研究会になっています。
最近、かなり発表量が増加傾向にあり、聴いているだけでも忙しい研究会です。
概要は以下の通りです。
開催形式:会場およびオンライン(Zoom使用)のハイブリッド開催会場: サイバーエージェント Abema Towers
発表の概要
こちらの研究会はありがたいことにJ-Stageで各発表のpdfが公開されています。(一覧はこちらhttps://sigfin.org/?032)。以下、著者の敬称略とさせて頂きます。
株式市場(5件) [座長] 水門 善之(野村證券/東京大学)
(01)成行注文間の相互作用を含むサンタフェ型金融板モデルによる価格変動の理論解析
若月大暉, 金澤輝代士(京都大学)
この研究では、市場の価格変動を説明するために、quadratic Hawkes過程を基にした新しい金融板モデルを提案しています。このモデルは、成行注文の相互作用を含み、個々のトレーダーのダイナミクスから価格変動を導出することを目的としています。Hawkes過程は、各イベントが他のイベントを誘発する自己励起性を持つモデルで、経済現象の説明に用いられてきましたが、市場で重要なintensityの分布のべき乗則を再現できませんでした。本研究では、quadratic Hawkesモデルをさらに拡張し、市場注文の相互作用を考慮したモデルを提案しており、より実際の市場の動きに近い理論解析が可能です。成行注文と指値注文のダイナミクスを組み合わせた点がユニークです。
(02) 対数尤度比検定を用いた東京証券取引所における注文分割取引者のクラスタリング解析
Sato Yuki, 金澤輝代士(京都大学)
この研究では、金融市場で観測される成行注文流のLRC(Long Range Correlation)を、注文分割取引者の行動から理解することを目的としています。注文分割は、実務家観点で、分割した方が執行コストが抑えられると考えられています。特に、東京証券取引所における注文分割取引者の注文頻度や注文分割回数の分布を分析し、注文流の長期相関の起源を明らかにすることを試みています。先行研究では、成行注文流の長期相関の起源が注文分割行動によるものであるとされていますが、個々の取引者の行動レベルでの詳細な分析は行われていませんでした。本研究では、対数尤度比検定を用いて注文分割取引者をクラスタリングし、その行動特性を明らかにしています。
(03) 研究開発の凝集度が企業価値に与える影響についての分析
Haotian Wu, Dongli Han(Nihon University), Chenghuan Zhang(The University of Tokyo)
テンセント社とバイドゥ社を事例に、特許データ、市場価値データ、決算報告データを用いて、研究開発凝集度とシンプルqの関係を分析しています。研究開発凝集度とは、企業内での研究開発活動がどれだけ集中しているかを示す指標です。研究開発活動が集中している企業は、企業価値を示すシンプルqの値が高くなる傾向にあることが示されました。後半では未上場企業25社に対し検証を実施、同傾向が示されました。
先行研究では、研究開発投資、特許の数や引用数などを用いて科学技術の発展が企業の業績や市場価値に与える影響を分析してきました。しかし、特許の中身=テキスト情報を利用した分析は少ないです。
研究開発凝集度の評価には、特許データから得られる国際特許分類(IPC)、特許タイトルおよび特許概要の類似度分析を利用しています。これらのデータを基に、企業内での研究開発活動がどれだけ特定の分野に集中しているかを定量的に評価し、その集中度が企業価値にどのような影響を与えるかを分析しています。
(04) Dynamic Covariance Matrices Averaging を用いた分散共分散行列の予測
井澤剛(野村アセットマネジメント株式会社)
金融時系列データの分散共分散行列を予測する新しい手法「Dynamic Covariance Matrices Averaging (DCMA)」の提案です。異なる手法で推定された分散共分散行列を組み合わせ、直近のパフォーマンスに基づいて重み付けし、加重平均を行うことで、市場の変化に応じたより適応的な分散共分散行列の推定を可能にします。従来の分散共分散行列の推定手法が固定のウィンドウサイズやパラメータに依存していたのに対し、DCMAは、異なるウィンドウサイズで推定された分散共分散行列を、直近の予測性能に基づいて重み付けして組み合わせる手法です。これにより、急激な市場の変動にも対応可能になります。
(05) Graph Based Entropyと領域間相互作用を用いた株式市場と景気循環の分析
中田喜之, 吉野貴晶, 杉江利章(ニッセイアセットマネジメント株式会社), 関口海良, 劉乃嘉, 大澤幸生(東京大学)
株式市場の長期的なリターンの相関係数行列から生成されたグラフと、短期的なリターンの関係性を分析し、景気循環と市場の物色傾向の関連性を明らかにしています。具体的には、Graph Based Entropyと領域間相互作用の手法を用いて、短期間における特定のクラスタ(銘柄群)への物色の偏りが景気循環のどの段階に関連しているかを分析しています。先行研究では、業種別の分析や市場のネットワーク分析など様々な手法が用いられてきましたが、本研究は、長期的なリターンの相関に基づくクラスタリングと、短期的な物色の偏りを組み合わせることで、景気循環と株式市場の動きの関連性をより詳細に解析しています。TOPIX 500、S&P 500、STOXX Europe 600の3つの主要な株式指数に対して実証分析を行い、物色の偏りが景気循環に対する予測力を持つ可能性を示す結果を得ました。
テキストマイニング(5件) [座長] 真鍋 友則 (SOMPOリスクマネジメント)
(06) 言語モデル性能評価のための日本語金融ベンチマーク構築と各モデルのパフォーマンス動向
平野正徳(株式会社Preferred Networks)
金融ドメインに特化した日本語の大規模言語モデル(LLM)の性能を評価するためのベンチマークを構築しました。https://github.com/pfnet-research/japanese-lm-fin-harnessこのベンチマークは、金融分野特有の複数のタスクを含んでおり、主要なモデルに対する性能測定を行いました。結果として、現時点でGPT-4が顕著な性能を示していることを確認しました。また、nekomata-14Bが性能が良く、唯一金融のテキストデータを学習させている可能性があるとのことです(他のモデルは金融のデータを学習させていない)。先行研究にもベンチマークはない状況です。金融分野特有の5つのタスク(金融分野における感情分析、証券分析の基礎知識、公認会計士試験の監査問題、ファイナンシャルプランナー試験の選択問題、証券外務員試験の模擬試験)を用いたベンチマークの構築です。構築したベンチマークを使用して、GPT-4を含む複数の言語モデルに対する性能測定を実施しました。
(07) 金融ニュースのタグ付けにおける大規模言語モデルの有効性検証
山口流星, 田代雄介, 鈴木彰人, 辻晶弘(株式会社 三菱UFJトラスト投資工学研究所)
本研究は、最近の大規模言語モデル(LLM)の急速な発展に着目し、特に金融ニュースの分野におけるESG(環境、社会、企業統治)関連のタグ付けタスクにおけるその有効性を検証しました。LLMの性能を、プロンプトエンジニアリングやfine-tuningを含む異なるアプローチを用いて評価し、従来のモデルや他の新しい手法と比較しています。金融ニュースのタグ付けという具体的な応用において、大規模言語モデルの有効性を検証した点が先行研究と比較して新しいところです。日本語の金融ニュースに対するESGタグ付けタスクを設定し、LLM(ELYZAモデルを使用)と他のモデルや手法(BERT、SetFitなど)との比較を通じて性能を評価しました。学習データのサイズが異なる3つのシナリオ(16件、128件、512件)において、AccuracyとF1-scoreを用いて、大規模モデルの有効性を検証しています。
(08) 経営トップメッセージにおける可読性分析
中尾悠利子(関西大学), 石野亜耶, 岡田斎(広島経済大学)
この研究は、日本企業が発行するサステナビリティ報告書の経営トップメッセージの可読性とESGパフォーマンスとの関係を検証しています。さらに、サステナビリティ報告書の可読性を判定するためにニューラルネットワークのモデルを提案しています。このアプローチにより、報告書の可読性が企業のESGパフォーマンスにどのように影響するかを分析できます。特徴量として文字数、単語数、文節数など13の値の組み合わせを用い、さらに分散表現を利用することで、従来の研究では見過ごされがちだったサステナビリティ報告書の可読性の複雑な側面を捉えられる可能性があります。
(09) 大規模言語モデルを活用したESG評価
濱田祐馬, 石野亜耶(広島経済大学), 中尾悠利子(関西大学)
本研究では、企業のサステナビリティ報告書を解析しESG(環境・社会・ガバナンス)評価を自動で行うために大規模言語モデル(LLM)を活用する手法を提案しています。従来のESG評価は、評価機関ごとに異なる指標を用いており、また人手による評価には多大な時間とコストがかかるという問題がありました。本研究では、これらの問題を解決するために、統合された「価値モデル」を基に、大規模言語モデルを活用してESG評価を自動化する手法を提案しています。ChatPDFを利用して、サステナビリティ報告書からの情報抽出とESG評価を行う点にあり、ESGに関連する指標の評価を自動で行うことが可能になります。また、価値モデルを基にした質問設計により、具体的なサブゴールに関する情報開示スコアを評価することができます。本研究では、ESGスコアの高い企業のサステナビリティ報告書を用いて実験を行い、ChatPDFを利用したESG評価の有効性を検証した。評価は、ChatPDFが提供するYes/Noの回答の正確さと、回答の根拠となる箇所(該当箇所)の正確さが挙げられる。実験の結果、正答率は0.78、該当箇所正答率は0.68と高い性能を示しています。
(10) Text-Based Correlation Matrix ーテキスト解析を用いた多資産間の相関構造の推定ー
澤木智史(みずほ銀行), 田村俊介, 仲山泰弘(みずほリサーチ&テクノロジーズ)
金融テキスト解析を用いて、多資産間の相関構造を推定する研究。インフレ率の変動や金融政策の変更などの背景により変化する資産間の相関構造を、市場の価格データだけでなく、ニューステキストや中央銀行の発表テキストを用いた自然言語処理によって予測する手法を検証しています。従来の市場データに基づく相関係数の推定方法は、時間ラグや予測誤差、局面転換時の解釈性の乏しさなどの問題がありました。本研究では、ニューステキストや中央銀行のテキストを分析することで、これらの問題に対処し、時系列データからの予測と比較しても有用性を示しています。自然言語処理を活用し、ゼロショット学習済みモデルを用いた含意判定によって各ニュースが上昇または低下仮説文を含意しているかをスコア化し、相関係数の変化予測に活用しています。2009年1月から2023年11月までのBloombergのニュースヘッドラインデータを使用し、米国の株式と債券の将来3ヶ月の相関係数と過去3ヶ月の相関係数との差分を予測対象として、XGBoostモデルを用いた予測精度の検証を行っています。その結果、提案モデルはベンチマークモデルに比べてRMSEが小さくなり、テキストベースのスコアが相関変化予測に有用であることが示されました。
機械学習1(5件) [座長] 平松 賢士(アイフィスジャパン)
(11) 凸リスク尺度に基づく再帰的強化学習
比留木幹人(京都大学), 中川慧(野村アセットマネジメント株式会社)
本研究は、再帰的強化学習において、凸リスク尺度を目的関数に設定し、リスクの時間整合的な評価を可能にする手法を提案しています。柔軟な目的関数の選択とリスク評価の一貫性を実現します。従来の再帰的強化学習では、目的関数の選択が限定的であり、リスク尺度の時間的整合性を保証することが難しいとされていました。本研究ではこれらの課題を解決しています。凸リスク尺度と動的凸リスク尺度を目的関数として再帰的強化学習に適用し、これらの勾配計算方法を提案している点です。これにより、リスクの時間整合的な評価と、多様なリスク尺度からの目的関数の選択が可能となります。人工データと実市場データを用いた実験を通じて、提案手法の有効性を検証しました。特に、リスク管理能力と投資戦略としての性能を評価する複数の指標を用いて、提案手法が従来の手法よりも優れていることを示しています。
(12) マクロ経済データとBeige Bookを用いた金融政策決定前の資産価格変動予測
藤原真幸(京都大学), 中川慧(野村アセットマネジメント株式会社), 水門善之(野村証券株式会社), 秋田祐哉(京都大学)
連邦公開市場委員会(FOMC)の金融政策決定会合前の特定期間に、Beige Bookの公表とマクロ経済データを組み合わせて価格変動を予測するモデルの開発をしています。特に、Beige Bookのセンチメント分析とXGBoostを用いています。Beige Bookのテキストデータから抽出したFinBERTによるセンチメント情報を加えることで、金融政策の決定が資産価格に与える影響をより正確に予測する点が新しい点です。1996年から2023年にかけてのBeige Bookおよびマクロ経済データを使用して予測精度の評価を行い、特にインフレ率や失業率などのマクロ経済指標とBeige Bookからのセンチメントスコアを組み合わせることで、資産価格の変動を予測することに成功しています。
(13) 量子機械学習を用いた信用リスクモデルの提案
Rei Taguchi(The University of Tokyo)
量子機械学習技術を活用して、二値分類の信用リスクモデルを開発しています。カーネル関数部分を量子回路で置き換えた量子サポートベクターマシン(QSVM)を提案し、新しい信用リスクモデルを構築しています。提案手法は比較手法よりも優れた性能を示し、量子機械学習が信用リスクモデル構築においてある程度有用であることを示唆しています。量子機械学習を活用することで、計算負荷の高い非線形な関数の問題を補完し、より表現力の高いモデルを構築しています。ポイントは量子サポートベクターマシン(QSVM)です。QSVMでは、従来のSVMのカーネル関数を量子回路で置き換えることにより、高次元の特徴空間での非線形分離を効率的に行うことが可能になります。実験では、Kaggleから取得したデータセットを使用し、特徴量選択にXGBoost、次元削減にPCAを用いた上で、提案したQSVMモデルと従来の機械学習モデル(ロジスティクス回帰、SVC、決定木、ナイーブベイズ分類器)との性能比較を行いました。評価指標にはAccuracy、Precision、Recall、F1-scoreを用い、提案手法が他の手法と比較して優れた性能を示すことを確認しました。
(14) 拡散モデルの金融時系列生成への応用
高橋友則(総合研究大学院大学), 水野貴之(国立情報学研究所)
拡散モデル、特にDenoising diffusion probabilistic models(DDPMs)を金融時系列の生成に応用し、株価だけでなく、出来高やスプレッドといった関連時系列も同時に生成するモデルを提案しています。金融市場で観測される統計性を再現していることを示す研究です。金融時系列データをウェーブレット変換でスペクトログラムに変換し、その後DDPMsを適用する点にあります。これにより、株価に加えて価格スプレッドや取引高などの関連時系列を同時に生成し、それらが金融市場で観測される統計性を再現することが可能になります。NASDAQのアップル社の分足データを用いて、提案モデルの学習と生成を行い、実際の時系列データと合成時系列データの比較を通じて、提案モデルが金融時系列の特徴(対数収益率のファットテール性、価格スプレッド、取引高の分布など)をうまく捉えていることを示しました。
機械学習/オルタナデータ(6件) [座長] 中川 慧(野村アセットマネジメント株式会社)
(16) 密度比マッチングと勾配コミュニケーションによる異質性を伴う連合学習
井口亮, 加藤真大, 貝淵響(みずほ第一フィナンシャルテクノロジー), 野田俊也, 今泉允聡(東京大学)
データ分布の異質性を持つクライアント間での分散学習問題を考慮し、従来の連合学習がこの異質性に弱いという問題点に対処するため、密度比推定と勾配通信学習に基づく新しい方法を提案しています。この研究ではデータの異質性を考慮した上で、効果的な学習が可能な新しい方法を提案している点が特徴です。密度比マッチングによりデータ分布の違いを補正し、勾配通信学習を用いてクライアント間でモデルの勾配情報のみを共有することにより、データのプライバシーを保護しつつ異質性のあるデータから効率的に学習する方法です。有効性の検証は、複数のUCIデータセットとベンチマークデータセットを用いた実験により行われ、提案手法が従来の連合学習手法よりも高い精度を達成していることが示されました。
(17) 二重PU学習による潜在的顧客の特定
馬場健太郎, 加藤真大, 今井岳(みずほ第一フィナンシャルテクノロジー)
本研究では、正例データとラベルなしデータのみを用いた二値分類器の学習、すなわちPU学習(positive and unlabeled dataからの学習)を、ターゲットマーケティングにおける潜在的顧客の特定に応用する新たな手法を提案しています。潜在的顧客にマーケティングの焦点を当てることで、より効率的なマーケティングを実現することを目指しています。既存の方法と比較して、特にロイヤルティが低い一方興味を持ちうる顧客層に焦点を当てることで、マーケティングの効率化と精度の向上を図っています。二重PU学習アルゴリズムは、一段階の最適化によって構成されていますが、目的関数にはPU学習アルゴリズムの損失を二つ含んでいます。これにより、正例データとラベルなしデータのみを用いて、潜在的顧客を正確に識別する分類器を学習することが可能になります。
(18) ベイジアン予測統合に基づくポートフォリオ選択
加藤真大, 貝淵響(みずほ第一フィナンシャルテクノロジー)
従来のポートフォリオ最適化手法は、資産リターンの分布に関する情報を必要としますが、そのような情報は通常、投資家にとって未知です。本研究では、ベイジアン予測統合を用いて複数の資産リターン予測モデルの予測を組み合わせ、金融市場の不確実性に対応した資産分布情報の予測を可能にする手法を提案しています。本研究では、ベイジアン予測統合(BPS: Bayesian Predictive Synthesis)を用いています。BPSは、複数の予測を統合するベイジアンモデルであり、動的線形モデルを利用して時系列予測に適用されます。これにより、各資産リターンに対する予測分布を得ることができ、それを基に平均分散ポートフォリオや分位点に基づくポートフォリオなど、様々なポートフォリオを構築することが可能です。
(19) 滞在人口データを用いた取引先企業のリース需要予測
加藤塁(三井住友ファイナンス&リース株式会社), 宮川大介(早稲田大学), 柳岡優希(株式会社東京商工リサーチ), 雪本真治(三井住友ファイナンス&リース株式会社)
GPS位置情報データを用いて製造業の企業の主要な工場での滞在人口の変動を計測し、その企業の取引先におけるリース需要を予測するモデルの構築です。三井住友ファイナンス&リース株式会社のリース契約データを使用しており、新型コロナウイルス感染症の影響を除いた時期には、滞在人口データがリース需要予測に貢献することが確認されました。高精度で高頻度な滞在人口データ(オルタナティブデータ)と、企業間の取引関係データを組み合わせて、取引先企業のリース需要を予測する点にあります。特に、新型コロナウイルス感染症の拡大という外部ショックの影響を受ける中でも、滞在人口データを活用することで、企業活動の変化を捉え、リース需要の予測精度を向上させています。GPSデータの補正手法も重要であり、長期的な滞在人口の変動をより正確に反映させるために、住宅街地域のGPSデータを用いた補正が施されています。有効性は、三井住友ファイナンス&リース株式会社のリース契約データを用いて検証されました。複数の予測モデルを構築し、トレーニングデータの期間を変えながら予測精度の検証を行い、滞在人口データを利用した場合と利用しない場合での精度の比較を通じて、滞在人口データの有効性が確認されています。
(20) Pricing Implication of Centrality in an OTC derivative Market: An Empirical Analysis Using Transaction-Level CDS Data
Daisuke Miyakawa(Waseda University), Kohei Maehashi, Kana Sasamoto(Bank of Japan)
どんなもの?クレジットデフォルトスワップ(CDS)市場で売り手と買い手の相対的な中心性がCDSの価格にどのように影響を与えるかを、トランザクションレベルのデータを用い実証的に分析しています。市場の信用リスクが高い状況や取引関係の深さが中心性による価格プレミアムにどう影響するかを探求しています。CDS価格に影響を与える様々な要因(エンティティリスク、カウンターパーティリスク、ノーショナル、満期など)をコントロールしつつ、検証を進めています。中心性が高い売り手からのCDSがより高い価格で取引される傾向があること、そしてこの中心性プレミアムが信用リスクの高い市場でより顕著になり、さらに過去にショートポジションを持っていた買い手がそのポジションを解消しようとする場合に増加することを明らかにしました。
(21) オルタナティブデータを用いたREITのパフォーマンス予測
中北誠(理化学研究所), 星野崇宏(慶應義塾大学, 理化学研究所)
オルタナティブデータであるスマートフォンと輸送トラックの位置情報を用いて、REIT(不動産投資信託)のパフォーマンスを予測しています。リアルタイムの人流や物流データを活用し、不動産市場の動向をより正確かつタイムリーに把握することを目指しています。REITのポートフォリオに含まれる施設への滞在人口(人流)と輸送トラックの滞在台数(物流)を説明変数として、線形回帰モデルを含む複数の機械学習モデルを用いてREITの株価を予測する点にあります。特に、スマートフォンとトラックの位置情報を1km四方のメッシュに分割し、そのデータを基に予測モデルを構築しています。本研究では、2020年1月から2021年11月までの23か月間のREITパフォーマンスを予測し、その予測精度を比較しました。予測には、2019年のデータを学習期間として使用し、線形モデルをベースラインとして、オルタナティブデータを使用したモデルとの予測精度の違いを評価しました。
所感
ご覧いただいた通り、引き続きテキスト情報に関する研究が多くありました。もともと、自然言語処理の研究は多かったのですが、さらに増えてきた印象です。オルタナティブデータの話も今回は興味深いものがいくつかありました。
お読みいただきまして、ありがとうございました!