このホームページで公開されている内容は,
JST CRESTの研究領域「ビッグデータ統合利活用のための次世代基盤技術の創出・体系化」(研究総括:喜連川 優) の
採択課題「ビッグデータ時代に向けた革新的アルゴリズム基盤」(研究代表者:加藤 直樹) の研究成果です.
南海トラフに起因する大地震時に発生する津波は,大阪の梅田地下街にも到達すると予想されている.
地下街や地下鉄の利用者が多い平日の18時頃を想定し,2万人以上の避難者が地下街の最寄りの接続ビルに垂直避難を行うマルチエージェント・シミュレーションを実施し,避難完了時間や滞留が発生しうる場所を検証した.本動画はそのシミュレーションの様子を可視化したものである.
同型性を考慮した効率的なグラフ列挙アルゴリズムのフレームワークを開発した.
その応用例として区間グラフおよび置換グラフそれぞれに対するアルゴリズムを設計し,実装した.
本プログラムにより本質的に異なる区間グラフおよび置換グラフを効率的にすべて出力することができ,計算機実験におけるテストデータの作成やグラフクラスの性質の発見が期待できる.
ガウス型マルコフ確率場(ガウシアングラフィカルモデル)を基礎とした画像ノイズ除去のプログラム.
原画像に独立にノイズが付加された複数枚の画像を用いて,EMアルゴリズムによるハイパパラメータ推定を経て原画像を推定する.
統計力学的な物理量の一つである自由エネルギーに着目し,近似なしで,かつ,線形時間 O(n) で解を得るアルゴリズムを提案し,実装した.
データストリームを一時的に溜めることなく連続的に圧縮・復号化可能な,高速データ圧縮技術を開発した.
この技術は,リアルタイムに,理論的にはデータを1/10 のサイズにまで縮小でき,銅線や光ケーブルなどの伝送媒体を変更することなく,ネットワークなどの通信速度を最大10 倍高速化できるという特長を持つ.
SUBLINEARプロジェクト,正式には『ビッグデータ時代に向けた革新的アルゴリズム基盤』構築プロジェクトは,次のような時代要請をうけて,2014年10月に始まった.
今世紀に入り注目を浴びているビッグデータは,そのデータ量の膨大さ故に,その基礎となるアルゴリズム理論に根本的な変革が迫られている.例えば,これまでは多項式時間アルゴリズムならば「速い」アルゴリズムであると考えられてきたが,ペタスケールやそれ以上のビッグデータに対して O(n^2)
時間アルゴリズムを直接適用するだけでは,計算資源や実行時間などの点で大きな困難に直面する.少なくとも線形時間,場合によっては劣線形時間や定数時間アルゴリズムが求められている.
本プロジェクトでは,その変革を支える劣線形時間パラダイムを提唱し,ビッグデータ用のアルゴリズムとデータ構造,およびモデリング技法を開発し,ビッグデータ時代に向けた革新的アルゴリズム基盤の構築を目指して研究を続けてきた.そして今日までに,いくつもの有用な成果を得ることができた.
ここで公開するのはその研究成果の一部である。
あなたもジンドゥーで無料ホームページを。 無料新規登録は https://jp.jimdo.com から