利用者の視点に基づくシーン検索のためのイベント-アクティビティモデル

Translated title of the contribution: Event-Activity Model: A Data Model for Retrieving Scenes According to Views of Users

牛尼 剛聡, 広部 一弥, 渡邉 豊英

Research output: Contribution to journalArticle

Abstract

本論文では, さまざまな利用者の視点に従ってシーンを検索可能な動画像データモデルを提案する. 従来の動画像検索システムでは, 検索対象であるシーンに直接キーワードなどの属性を付加し, 指定された属性をもつシーンを検索する手法が一般的に用いられてきた. しかし, この手法では, キーワードの語彙やシーンのとらえ方がデータベース作成者の視点に依存するために, 検索対象となるシーンはあらがじめ限定され, 利用者の視点に基づいて検索することが困難である. そこで, 我々は, 利用者の検索要求に基づいて動的にシーンを構成可能なイベント-アクティビティモデルを開発した. 本モデルでは, 動画像中に表現された実体の特性の変化と実体間の相互作用をイベントとして定義し, 動画像のフレームにイベントをインデックスとして対応づけることにより, 動画像の内容をイベント系列として定義する. 利用者はイベント系列パターン (アクティビティ) を指定し, システムはイベント系列中からアクティビティに含まれる部分系列を抽出することによりシーン検索を実現する.
Original languageJapanese
Pages (from-to)256-267
Number of pages12
Journal電子情報通信学会論文誌. D-1, 情報・システム 1-コンピュータ
Volume82
Issue number1
Publication statusPublished - Jan 1999

Cite this

@article{1eaf380b666c4c7b9cd1171a6ff7ac4f,
title = "利用者の視点に基づくシーン検索のためのイベント-アクティビティモデル",
abstract = "本論文では, さまざまな利用者の視点に従ってシーンを検索可能な動画像データモデルを提案する. 従来の動画像検索システムでは, 検索対象であるシーンに直接キーワードなどの属性を付加し, 指定された属性をもつシーンを検索する手法が一般的に用いられてきた. しかし, この手法では, キーワードの語彙やシーンのとらえ方がデータベース作成者の視点に依存するために, 検索対象となるシーンはあらがじめ限定され, 利用者の視点に基づいて検索することが困難である. そこで, 我々は, 利用者の検索要求に基づいて動的にシーンを構成可能なイベント-アクティビティモデルを開発した. 本モデルでは, 動画像中に表現された実体の特性の変化と実体間の相互作用をイベントとして定義し, 動画像のフレームにイベントをインデックスとして対応づけることにより, 動画像の内容をイベント系列として定義する. 利用者はイベント系列パターン (アクティビティ) を指定し, システムはイベント系列中からアクティビティに含まれる部分系列を抽出することによりシーン検索を実現する.",
author = "剛聡 牛尼 and 一弥 広部 and 豊英 渡邉",
year = "1999",
month = "1",
language = "Japanese",
volume = "82",
pages = "256--267",
journal = "電子情報通信学会論文誌. D-1, 情報・システム 1-コンピュータ",
issn = "0915-1915",
publisher = "一般社団法人電子情報通信学会",
number = "1",

}

TY - JOUR

T1 - 利用者の視点に基づくシーン検索のためのイベント-アクティビティモデル

AU - 牛尼, 剛聡

AU - 広部, 一弥

AU - 渡邉, 豊英

PY - 1999/1

Y1 - 1999/1

N2 - 本論文では, さまざまな利用者の視点に従ってシーンを検索可能な動画像データモデルを提案する. 従来の動画像検索システムでは, 検索対象であるシーンに直接キーワードなどの属性を付加し, 指定された属性をもつシーンを検索する手法が一般的に用いられてきた. しかし, この手法では, キーワードの語彙やシーンのとらえ方がデータベース作成者の視点に依存するために, 検索対象となるシーンはあらがじめ限定され, 利用者の視点に基づいて検索することが困難である. そこで, 我々は, 利用者の検索要求に基づいて動的にシーンを構成可能なイベント-アクティビティモデルを開発した. 本モデルでは, 動画像中に表現された実体の特性の変化と実体間の相互作用をイベントとして定義し, 動画像のフレームにイベントをインデックスとして対応づけることにより, 動画像の内容をイベント系列として定義する. 利用者はイベント系列パターン (アクティビティ) を指定し, システムはイベント系列中からアクティビティに含まれる部分系列を抽出することによりシーン検索を実現する.

AB - 本論文では, さまざまな利用者の視点に従ってシーンを検索可能な動画像データモデルを提案する. 従来の動画像検索システムでは, 検索対象であるシーンに直接キーワードなどの属性を付加し, 指定された属性をもつシーンを検索する手法が一般的に用いられてきた. しかし, この手法では, キーワードの語彙やシーンのとらえ方がデータベース作成者の視点に依存するために, 検索対象となるシーンはあらがじめ限定され, 利用者の視点に基づいて検索することが困難である. そこで, 我々は, 利用者の検索要求に基づいて動的にシーンを構成可能なイベント-アクティビティモデルを開発した. 本モデルでは, 動画像中に表現された実体の特性の変化と実体間の相互作用をイベントとして定義し, 動画像のフレームにイベントをインデックスとして対応づけることにより, 動画像の内容をイベント系列として定義する. 利用者はイベント系列パターン (アクティビティ) を指定し, システムはイベント系列中からアクティビティに含まれる部分系列を抽出することによりシーン検索を実現する.

M3 - 記事

VL - 82

SP - 256

EP - 267

JO - 電子情報通信学会論文誌. D-1, 情報・システム 1-コンピュータ

JF - 電子情報通信学会論文誌. D-1, 情報・システム 1-コンピュータ

SN - 0915-1915

IS - 1

ER -