2025-01-08 Updates

2025-01-08 に確認した最新投稿の一部です。

Article: 1

Title:

Efficient support ticket resolution using Knowledge Graphs

Published:

2024-12-31

Authors:

Sherwin Varghese, James Tian

Abstract:

160,000件を超えるお客様のケースのレビューによると、製品サポートは、簡単な解決策が存在しない可能性のあるチケットのサブセットの約10%を解決するために、約90%の時間が費やされています。これらの困難なケースの多くは、「群れ」の中で一緒に働く複数のエンジニアのサポートを必要とし、中にはバグとして開発サポートに行く必要があるケースもあります。これらの困難な顧客の問題は、ソリューションに最も適切に対処できる理想的なエンジニア/エンジニアのグループ(swarm)を特定する機械学習とナレッジグラフの大きな機会を表しており、顧客の待ち時間を短縮します。ここで考える具体的な ML タスクは、インシデントと、そのインシデントに現在割り当てられている一連のエンジニア (非スウォーミング コンテキストでは空のセットである可能性があります) を指定すると、そのインシデントの解決に最も適したエンジニアのランク付けされたリストを生成する TCPR (ラーニング ツー ランク) タスクです。ランキングを計算するために、お客様から提供されたインシデントの説明、影響を受けるコンポーネント、専門知識のエンジニア評価、エンジニアが作成したナレッジ ベース記事のテキスト、エンジニアが作成したお客様のテキストへの対応、過去のスウォーミング データなど、さまざまな入力機能を考慮する場合があります。中心的な仮説テストは、エンジニアが解決したケースに関するコンテキストデータの全体的なセットを含めることで、ベンチマークモデルよりもLTRアルゴリズムを大幅に改善できるというものです。この記事では、群れ情報を含む複数のデータソースからのKnowledge Graph埋め込みをモデル化する新しいアプローチを提案しています。得られた結果は、この追加のコンテキストを組み込むことで、TF-IDFのような従来の機械学習手法よりも推奨事項を大幅に改善できることを証明しています。

Article: 2

Title:

Detecting AI-Generated Text in Educational Content: Leveraging Machine Learning and Explainable AI for Academic Integrity

Published:

2025-01-06

Authors:

Ayat A. Najjar, Huthaifa I. Ashqar, Omar A. Darwish, Eman Hammad

Abstract:

この研究は、高度なテクノロジーを使用して学生の作品でAIが生成したコンテンツを検出するツールを提供することにより、アカデミックインテグリティの向上を目指しています。この調査結果は、透明性と説明責任を促進し、教育者が倫理基準を維持し、AIの教育への責任ある統合を支援するのに役立ちます。この作業の主な貢献は、1000の観測値を持つCyberHumanAIデータセットの生成であり、そのうち500は人間によって書かれ、残りの500はChatGPTによって生成されます。CyberHumanAIデータセット上で、大規模言語モデル(LLM)(ChatGPT)から人間が書いたコンテンツとAIが生成したコンテンツを比較して、さまざまな機械学習(ML)およびディープラーニング(DL)アルゴリズムを評価します。結果は、従来のMLアルゴリズム、特にXGBoostとRandom Forestが高性能(それぞれ83%と81%)を達成していることを示しています。また、短いコンテンツの分類は、長いコンテンツの分類よりも難しいと思われることも結果から示されています。さらに、説明可能な人工知能(XAI)を使用して、人間が書いたコンテンツが実用的な言語(使用や許可など)を使用する傾向がある、MLモデルの予測に影響を与える識別可能な特徴を特定します。一方、AIが生成したテキストは、より抽象的で形式的な用語(例:realmやemploy)によって特徴付けられます。最後に、GPTZero との比較解析では、焦点を絞った単純で微調整されたモデルが、GPTZero のような一般化されたシステムよりも優れたパフォーマンスを発揮できることが示されています。Pure AI、Pure Human、および混合クラスの分類を任されたとき、GPTZeroの48.5%の精度と比較して、提案されたモデルは約77.5%の精度を達成しました。GPTZeroは、困難で小さなコンテンツのケースを混合または認識されていないケースに分類する傾向を示しましたが、提案モデルは3つのクラス間でよりバランスの取れたパフォーマンスを示しました。

Article: 3

Title:

Exploring Physics-Informed Neural Networks for Crop Yield Loss Forecasting

Published:

2024-12-31

Authors:

Miro Miranda, Marcela Charfuelan, Andreas Dengel

Abstract:

気候変動への対応として、極端な気象条件下での作物の生産性を評価することは、食料安全保障を強化するために不可欠です。作物シミュレーションモデルは、物理的なプロセスと一致しているため、説明可能性を提供しますが、多くの場合、パフォーマンスは低下します。逆に、作物モデリング用の機械学習(ML)モデルは、強力でスケーラブルでありながら、ブラックボックスとして機能し、作物の成長に関する物理的原則に準拠していません。このギャップを埋めるために、ピクセルレベルで水使用量と水不足に対する作物の感度を推定することにより、両方のアプローチの長所を組み合わせた新しい方法を提案します。このアプローチでは、拡張損失関数を使用して、水不足に対する作物収量応答の方程式を逐次解くことにより、物理原理に基づいた収量損失の推定が可能になります。Sentinel-2衛星画像、気候データ、シミュレートされた水使用データ、ピクセルレベルの発電データを活用して、当社のモデルは高精度を実証し、最大0.77のR2を達成し、RNNやTransformerなどの最先端のモデルに匹敵するか、それを上回っています。さらに、解釈可能で物理的に一貫したアウトプットを提供し、業界、政策立案者、農家が極端な気象条件に適応するのを支援します。

Article: 4

Title:

Leveraging Explainable AI for LLM Text Attribution: Differentiating Human-Written and Multiple LLMs-Generated Text

Published:

2025-01-06

Authors:

Ayat Najjar, Huthaifa I. Ashqar, Omar Darwish, Eman Hammad

Abstract:

ジェネレーティブAI大規模言語モデル(LLM)の開発は、ジェネレーティブAIまたは人間によって生成されたコンテンツを特定することについて警告を発しました。あるケースでは、学生がそのようなツールに大きく依存し、ライティングやコーディングのスキルの発達に影響を与える可能性がある場合に問題が発生します。盗作の他の問題も当てはまります。この研究は、LLMツールを使用して生成されたテキストコンテンツを検出し、識別する取り組みを支援することを目的としています。LLMが生成したテキストは機械学習(ML)によって検出可能であると仮定し、複数のLLMツールによって生成されたテキストを認識および区別できるMLモデルを調査します。ランダムフォレスト(RF)やリカレントニューラルネットワーク(RNN)など、いくつかのMLおよびディープラーニング(DL)アルゴリズムを活用し、アトリビューションの重要な特徴を理解するために説明可能な人工知能(XAI)を活用しました。私たちの方法は、1)人間が書いたテキストとAIテキストを区別するための二項分類と、2)人間が書いたテキストと5つの異なるLLMツール(ChatGPT、LLaMA、Google Bard、Claude、Perplexity)によって生成されたテキストを区別するためのマルチ分類に分かれています。結果は、マルチ分類とバイナリ分類で高い精度を示しています。私たちのモデルは、98.5%の精度でGPTZeroを上回り、78.3%の精度を示しました。特に、GPTZeroは観測値の約4.2%を認識できませんでしたが、私たちのモデルは完全なテストデータセットを認識することができました。XAI の結果は、異なるクラス間での特徴の重要性を理解することで、詳細な著者/ソースプロファイルが可能になることを示しました。さらに、独自のスタイルと構造要素を強調することで、帰属を支援し、盗作の検出をサポートし、堅牢なコンテンツの独創性の検証を保証します。

Article: 5

Title:

FairSense: Long-Term Fairness Analysis of ML-Enabled Systems

Published:

2025-01-03

Authors:

Yining She, Sumon Biswas, Christian Kästner, Eunsuk Kang

Abstract:

近年、機械学習(ML)モデルのアルゴリズムの公平性が大きな懸念を提起しています。MLモデルの公平性の問題を特定して削減するために、多くのテスト、検証、バイアス軽減手法が提案されています。既存の方法はモデル中心であり、静的な設定の下で公平性の問題を検出するように設計されています。しかし、多くのML対応システムは、システムによる予測的な意思決定が環境に影響を与え、それが将来の意思決定に影響を与えるダイナミックな環境で動作します。このような自己強化型のフィードバックループは、たとえ当面の結果が公正であっても、長期的には公平性の侵害を引き起こす可能性があります。この論文では、ML対応システムの長期的な不公平性を検出して分析するためのFairSenseと呼ばれるシミュレーションベースのフレームワークを提案します。公平性の要件を前提として、FairSenseはモンテカルロシミュレーションを実行して、各システム構成の進化トレースを列挙します。次に、FairSenseは、可能な構成の空間に対して感度分析を実行し、設計オプションと環境要因がシステムの長期的な公平性に与える影響を理解します。FairSenseの潜在的な有用性を、ローン融資、オピオイドリスクスコアリング、予測的取り締まりという3つの実際のケーススタディを通じて実証しています。

Licensed under CC BY-NC-SA 4.0
Hugo で構築されています。
テーマ StackJimmy によって設計されています。