2024-12-27 に確認した最新投稿の一部です。
Article: 1
Title:
Published:
2024-12-24
Authors:
Fernando Jia, Jade Zheng, Florence Li
Abstract:
ゲームと分散型金融(DeFi)の融合であるGameFiの急速に進化する状況では、ゲームエコシステム内でのプレイヤーエンゲージメントと経済的相互作用を強化することが非常に重要視されています。当社のGameFiエコシステムは、高度なエンボディドAIエージェントをGameFiプラットフォームに統合することで、この状況を根本的に変えることを目指しています。これらのAIエージェントは、GPT-4やClaude AIなどの最先端の大規模言語モデル(LLM)を使用して開発されており、プレイヤーとの積極的で適応性が高く、コンテキストに富んだインタラクションを行うことができます。従来のスクリプト化された応答を超えることで、これらのエージェントはゲームの物語と経済システムの不可欠な参加者となり、プレイヤーの戦略とゲーム内の経済に直接影響を与えます。私たちは、没入感のあるAIインタラクションや、コミュニティエンゲージメントやクリエイターの収益化のためのメカニズムが不足していることが多い現在のGameFiプラットフォームの限界に対処します。AIエージェントとブロックチェーン技術の緊密な統合により、コンセンサス主導の分散型GameFiエコシステムを確立します。このエコシステムにより、クリエイターは自分の貢献を収益化し、プレイヤーとクリエイターの間の民主的なコラボレーションが促進されます。さらに、DeFiの仕組みをゲーム体験に組み込むことで、経済参加を強化し、ゲーム内での金融交流の新たな機会を提供します。私たちのアプローチは、従来のゲームとWeb3テクノロジーを橋渡しすることで、プレイヤーの没入感とリテンションを向上させ、GameFiエコシステムを前進させます。高度なAIとDeFiの要素を統合することで、より魅力的で経済的に堅牢で、コミュニティ中心のゲーム環境の発展に貢献しています。このプロジェクトは、GameFiの最先端技術における大きな進歩を表しており、ゲーム業界全体に適用できる洞察と方法論を提供します。
Article: 2
Title:
ZeroHSI: Zero-Shot 4D Human-Scene Interaction by Video Generation
Published:
2024-12-24
Authors:
Hongjie Li, Hong-Xing Yu, Jiaman Li, Jiajun Wu
Abstract:
ヒューマンシーンインタラクション(HSI)の生成は、エンボディドAI、バーチャルリアリティ、ロボティクスのアプリケーションにとって非常に重要です。既存の方法では、3Dシーンでリアルな人間の動きを合成し、もっともらしい人間とオブジェクトのインタラクションを生成することができますが、3Dシーンとモーションキャプチャデータのペアを含むデータセットに大きく依存しているため、さまざまな環境やインタラクションで収集するには費用と時間がかかります。ZeroHSIは、ビデオ生成とニューラルヒューマンレンダリングを統合することにより、ゼロショットの4Dヒューマンシーンインタラクション合成を可能にする新しいアプローチです。私たちの重要な洞察は、膨大な量の自然な人間の動きと相互作用で訓練された最先端のビデオ生成モデルによって学習された豊かな動きの事前分布を活用し、微分可能なレンダリングを使用して人間とシーンの相互作用を再構築することです。ZeroHSIは、静的なシーンと動的なオブジェクトを持つ環境の両方で、グラウンドトゥルースモーションデータを必要とせずに、リアルな人間のモーションを合成できます。私たちは、さまざまなタイプの屋内と屋外のさまざまなシーンとさまざまなインタラクションプロンプトのキュレーションされたデータセットでZeroHSIを評価し、多様で文脈的に適切なヒューマンシーンのインタラクションを生成する能力を実証します。
Article: 3
Title:
Modeling the Centaur: Human-Machine Synergy in Sequential Decision Making
Published:
2024-12-24
Authors:
David Shoresh, Yonatan Loewenstein
Abstract:
集合知の分野では、チームがチームメンバー一人よりも優れた結果を達成する方法を研究しています。人間と機械のチームという特殊なケースには、この点でユニークな課題があります。例えば、人間のチームは、コミュニケーションを取って相対的な優位性を発見することでシナジーを達成することがよくありますが、チームパートナーが説明できないディープニューラルネットワークである場合、これは選択肢ではありません。2005年から2008年にかけて、「フリースタイル」チェストーナメントが開催され、「ケンタウロス」として知られる人間と機械のチームが、最高の人間と最高の機械だけを上回りました。ケンタウロスのプレイヤーは、チェスプログラムが超人的であるにもかかわらず、自分自身とチェスプログラムとの間に相対的な優位性を特定したと報告しています。これに触発され、最近のオープンソースモデルを活用して、チェスにおける人間と機械のチームを研究しています。人間の行動クローン (“Maia”) と、RL で訓練された純粋なセルフプレイのチェス エンジン (“Leela”) は、Mixture of Experts (MoE) アーキテクチャを使用してチームに構成されました。環境省の選択メカニズムに研究課題を向けることで、知識共有なしに相対的な優位性を引き出すという問題を切り分けることができる。原理的には、チェスのような複雑な逐次的意思決定環境において、人間と機械の間には高いシナジー効果が期待できることを示しています。さらに、専門家がこれらの相対的な利点のごく一部しか特定できず、それに対する対象分野の専門知識の貢献はすぐに飽和することを示します。これはおそらく「知識の呪い」現象によるものでしょう。また、チェスの専門知識がなくても、強化学習を使用して相対的な利点を認識するようにネットワークを訓練し、専門家を凌駕します。私たちの実験は、相対的な優位性を特定することがより困難な非対称チームで繰り返されます。私たちの発見は、集合知と人間中心のAIの研究に貢献しています。
Article: 4
Title:
ClassifyViStA:WCE Classification with Visual understanding through Segmentation and Attention
Published:
2024-12-24
Authors:
S. Balasubramanian, Ammu Abhishek, Yedu Krishna, Darshan Gera
Abstract:
消化管(GI)出血は深刻な病状であり、特に医療リソースへのアクセスが限られている状況では、診断に重大な課題があります。ワイヤレスカプセル内視鏡検査(WCE)は、消化管を視覚化するための強力な診断ツールとして浮上していますが、経験豊富な消化器内科医による時間のかかる手動分析が必要であり、人為的ミスが発生しやすく、患者数の増加を考えると非効率的です。この課題に対処するために、WCE ビデオからのブリーディング フレームと非ブリーディング フレームの自動検出と分類のために設計された AI ベースのフレームワークである ClassifyViStA を提案します。このモデルは、標準の分類パスと、暗黙的なアテンション ブランチとセグメンテーション ブランチの 2 つの特殊なブランチによって拡張されたパスで構成されます。アテンションブランチは出血領域に焦点を当て、セグメンテーションブランチは正確なセグメンテーションマスクを生成し、分類と解釈可能性に使用されます。このモデルは、分類パフォーマンスを向上させるために、ResNet18 アーキテクチャと VGG16 アーキテクチャのアンサンブルに基づいて構築されています。出血領域の検出には、YOLOv8 で Soft Non-Maximum Suppression (Soft NMS) アプローチを実装し、オーバーラップするバウンディングボックスの処理を改善し、より正確で微妙な検出を実現します。セグメンテーションマスクを使用して分類結果を説明することで、システムの解釈可能性が向上し、消化器内科医が出血領域を特定するのと同様の意思決定プロセスに関する洞察が得られます。私たちのアプローチは、消化管出血の検出を自動化するだけでなく、医療従事者の負担を軽減し、診断効率を向上させることができる解釈可能なソリューションを提供します。当社のコードは ClassifyViStA で入手できます。
Article: 5
Title:
Published:
2024-12-24
Authors:
Xinran Li, Yi Shuai, Chen Liu, Qi Chen, Qilong Wu, Pengfei Guo, Dong Yang, Can Zhao, Pedro R. A. S. Bassi, Daguang Xu, Kang Wang, Yang Yang, Alan Yuille, Zongwei Zhou
Abstract:
腫瘍合成では、AIが見逃したり、過剰に検出したりしがちな例を生成することができ、これらの困難なケースについてトレーニングすることでAIのパフォーマンスを向上させることができます。しかし、既存の合成法は、通常、無条件(確率変数から画像を生成する)であるか、腫瘍の形状のみによって条件付けられるため、テクスチャー、不均一性、境界、病理の種類などの特定の腫瘍特性に対する制御性に欠けています。その結果、生成された腫瘍は、既存の学習データと過度に類似していたり、重複していたりして、AIの弱点に効果的に対処できない可能性があります。私たちは、TextoMorphと呼ばれる新しいテキスト駆動型腫瘍合成アプローチを提案し、腫瘍の特性をテキストで制御します。これは、腫瘍の早期検出(感度が+8.5%向上)、精密放射線治療のための腫瘍セグメンテーション(DSCが+6.3%増加)、良性腫瘍と悪性腫瘍の分類(感度が+8.2%向上)など、AIを最も混乱させる例に特に役立ちます。放射線科のレポートから抽出したテキストを合成プロセスに組み込むことで、合成腫瘍の変動性と制御性を高め、AIの失敗例をより正確に標的にしています。さらに、TextoMorphは、異なるテキストとCTスキャン間でのコントラスティブ学習を使用し、34,035の放射線レポートの大規模なコーパスを活用することで、希少な画像とレポートのペア(この研究では141ペアのみ)への依存を大幅に減らします。最後に、テキスト駆動型ビジュアルチューリングテストやラジオミクスパターン分析など、合成腫瘍を評価するための厳密なテストを開発し、合成腫瘍が現実的で、テクスチャー、不均一性、境界、および病理学が多様であることを示しています。