タグ: wit

  • SP/WIT研究会の感想など

    充実した研究会でした。1日目は40人、2日目も30人近くの参加者がこられました。また、1日目はPC要約筆記を実施し、一部の発表について手話通訳も実施しました。聴覚に障害をお持ちの方が4名いらっしゃったとのことです。

    個人的には、自分の研究に関する情報収集を通じて出会ったブロガーの方に研究会に来ていただけたことが嬉しかったです。

    また、ツイッターで中継をしていたときに、あるフォロワーの方から質問をいただき、そのセッション内で私が発表者にそれをお伝えして、返事をまたフォロワーの方に返す、というやりとりができました。

    ブログとツイッターが学会活動にもたらすであろう、大いなる可能性を実感する、私にとってはそんな意義深い研究会になりました。

    さらに、来年10月のPRMU/SP/WIT研究会では、ぜひ「音声認識による情報保障」にチャレンジしましょう、というお話が出たことも、とても嬉しいことです。

    実際にやるとなると「事前に言語モデルを構築しておけるのか」などなど問題が山積していると思うのですが、きっとよい機会になると信じています。

    WITの今後の予定は、12月のHCGシンポジウム、そして1月の「50回・10周年記念研究会」です。今後も私個人として可能な限りツイッター中継などに取り組んでいくつもりです。よろしくお願いします。

  • 第50回福祉情報工学研究会2日目

    • 09:04  #spwit 研究会2日目。午前に2つセッション。お昼に終了する予定。 http://bit.ly/hSIoW
    • 09:06  #spwit 途中で私の発表(10)があるので中継とまります。お許しください
    • 09:09  #spwit ゆうべの懇親会でこんな話がでました「来年の10月にPRMU/SP/WITの共催研究会を幕張CEATEC内で開催する際に、発表件数が多くなりそうなので、音声認識による情報保障を試してはどうか」
    • 09:14  #spwit (8) 國越さん「手の動きを入力としたリアルタイム音声生成系における鼻音の合成とピッチ制御に関する検討」
    • 09:16  #spwit (8) 國越さん「構音障害者支援技術。手話、コミュニケーションボード、VOCAなどがある。手話は相手も知っていないといけない。他の手法は感情を表現しにくい。テキスト音声合成に頼らない手法はないか?」
    • 09:18  #spwit (8) 國越さん「藪さんの先行研究。ペンタブレットで第1フォルマントと第2フォルマントを制御。その他10年前にグローブトークという提案」
    • 09:18  #spwit (8) 國越さん「提案。身体運動から音声に特徴量空間を写像。音声合成技術を使う。手の動きをデータグローブでキャプチャする」
    • 09:21  #spwit (8) 國越さん「ジェスチャ空間18次元と音響空間18次元の結合ベクトル。GMMで写像。話者変換で使われる技術。ただし、学習データのアラインメントを取るのは音声より難しい」
    • 09:23  #spwit (8) 國越さん「ジェスチャーと音の対応付け。指文字などを使わず新たに設計する。ジェスチャー群の配置と母音群の配置が等価になるように。指を曲げるか伸ばすか32通り。28種類を選んでジェスチャー位置の主成分分析」
    • 09:25  #spwit (8) 國越さん「群の分離されやすさ、指の形の作りやすさ。5つの形を決める。ジェスチャーとケプストラムを対応付け。結合ベクトル作成。GMM構築。STRAIGHTベースのケプストラム」
    • 09:27  #spwit (8) 國越さん:ビデオ「ロボットボイス的だが、元の声の分析合成音と似ている。合唱経験者なので難しい発声をさせやすかった。5母音の合成を実現。ピッチと子音が次の課題」
    • 09:29  #spwit (8) 國越さん「他に制御できるパラメータは?腕の方向を使う。地磁気・加速度などのセンサモジュールを使用。Rollを音声のピッチに割り当てる。「あおい」と喋るデモ」
    • 09:34  #spwit (8) 國越さん「子音の合成。波形接続と空間写像。前者は子音部と母音部の窓かけと混合部の長さを予備的に検討」「な」を合成した音声を聞かせる
    • 09:37  #spwit (8) 國越さん「nを考慮したジェスチャデザイン。アラインメント:目で見て子音部、遷移部分、母音部に分割して対応付け」「なにぬねの」の合成のデモビデオ
    • 09:39  #spwit (8) 國越さん「聴取実験による評価。分析再合成と比べると低いが、nとmの置換を許容すると良好な結果。フォルマント遷移部の音響特性に課題?」
    • 09:40  #spwit (8) 國越さん「ケプストラム歪みの評価。遷移部分が特に大きい」「まとめ:ピッチ制御の導入。鼻音合成の実験的検討」
    • 09:42  #spwit (8) 國越さん:デモ。手の動きで母音と鼻子音の再生。
    • 09:44  #spwit (8) 國越さん質疑「渡りの部分がたりないのでナがマになる?」「遷移部分は文字ごとに変える必要がある。いまの手法だと次にくる音素を予測できない」
    • 09:45  #spwit (8) 國越さん質疑「どれだけ自然な割り当てができるか=誰が使うか」「構音に障害があっても手には障害がない人が対象」
    • 09:47  #spwit (9) 中村さん「外部音源を用いた発声支援システムにおける統計的声質変換の評価」
    • 09:49  #spwit (9) 中村さん「声帯がない人のための人工喉頭(使って喋ってみせる)生成される音声が不自然。どうやって自然にするか」
    • 09:52  #spwit (9) 中村さん「概要。呼気センサーを使う。F0情報が得られる。統括的評価を」「従来法:F0を変化できない。Type-B:電気的に収録された音声を声質変換。電話なら変換音声だけを伝送できる」
    • 09:58  #spwit (9) 中村さん「Type-A:呼気センサー使用。気管孔からの呼気。強くふくと高い音になる」「Type-C:振動子を小さくして微弱音源を出す。NAMマイクで収録する」
    • 10:01  #spwit (9) 中村さん「B,A,Cの利点を比較」「最尤基準に基づく声質変換。入力と出力の話者を設定。入出力を結合した特徴量のGMM。条件付き確率密度最大化。言語情報に依存しない」
    • 10:04  #spwit (9) 中村さん「モノトーン電気音声が入力のときもF0をスペクトルから推定。非モノトーン電気音声のときはF0推定にスペクトルまたは入力F0を使う」
    • 10:07  #spwit (9) 中村さん「客観評価。メルケプストラム歪み。すべての変換で歪みを改善。F0評価:相関係数、有声無声判定。呼気センサーによる相関係数の上昇。入力F0の使用は無効(習熟による改善?)」
    • 10:10  #spwit (9) 中村さん「微弱音源からの変換結果がよくない。パワーが低すぎる」「主観評価。自然性、明瞭性、好感度。微弱音声の場合もやらないよりはよい」
    • 10:12  #spwit (9) 中村さんデモ音声再生。
    • 10:14  #spwit (9) 中村さん質疑「ささやきが特に自然に聞こえる。日本語に固有?中国語でささやきは困難?トーンランゲージ対策?」「ウィスパーでもピッチ成分が得られる可能性がある。知識で補完?」「スペクトルからF0が相関0.6で得られる。どう評価?」
    • 10:15  #spwit 次は (10) 西本「音声CAPTCHAにおける削除法と混合法の比較」
    • 10:16  #spwit (9) 中村さん質疑「F0推定は限界に来ている?品質を上げる可能性?」「案はあるけど。。セグメント特徴をPCA以外の方法でなにか」
    • 10:17  #spwit (9) 中村さん質疑「今回の被験者は呼気センサー訓練1ヶ月」
    • 10:17  #spwit (9) 中村さん質疑「MOSでささやきの評価が4なのは不自然?」
    • 10:20  #spwit (9) 中村さん質疑「人の声として自然か、ささやきも評価」「実時間性?一発話ごとに処理。ディレイは対策していない。将来の課題」「F0も言語情報なしでスペクトルと対応させる」
    • 10:58  #spwit (10) 西本発表終了。最初にツイッターのユーザ登録の reCAPTCHA をお見せしました(笑)
    • 11:02  #spwit (11) 大墳さん「体表点字による盲ろう者と健常者の会話システム」
    • 11:03  #spwit このセッションは西本が司会しながらつぶやきます
    • 11:06  #spwit (11) 大墳さん「最近は2個のモータで体表点字を実現。背中や肩など任意の箇所を使える。文字だけでなく左右などの情報も。ウェアラブル。受動的な情報取得」
    • 11:08  #spwit (11) 大墳さん「点字ひとマスを上中下の段に分ける。段に点がない場合は左を短く振動」「に:左・左・左」「な:左ブー、左トン、左ブー」「う:左右ブー、左トン、左トン」
    • 11:09  #spwit (11) 大墳さん「テレサポート。ジュースなのかコーラなのかカメラでサポーターに見せる、返事を体表点字で受け取る」
    • 11:10  #spwit (11) 大墳さん「自律歩行支援システム。RFIDを白杖で読み取る。音声の代わりに体表点字で情報提示」
    • 11:12  #spwit (11) 大墳さん「ヘレンケラーホン。携帯電話のボタン6個で入力。体表点字で会話」
    • 11:15  #spwit (11) 大墳さん「会話相手が健常者のとき、相手が近くにいるかどうかわからない。解決:赤外線で相手の存在を呈示。健常者はカナによる読み書き」
    • 11:17  #spwit (11) 大墳さん「盲ろう者の機器はベストに埋め込み。健常者は4x4ボタンと液晶画面の端末。会話までのタイミングチャート」
    • 11:21  #spwit (11) 大墳さん「盲ろう者が相手を見つけると会話モードに移行」「IrDAは通常10センチ。今回はリモコン用赤外線。8m届く。赤外線をPICでPWM変調。実験:光量と到達距離」
    • 11:22  #spwit (11) 大墳(おおつか)さんの発表中です。プログラム http://bit.ly/hSIoW
    • 11:24  #spwit (11) 大墳さん「今年8月の盲ろう者大会で意見を聞く。約30人(介助者含む)点字を知っているのは半数。ろうベースの触手話使用者も。好評をえた」
    • 11:35  #spwit (11) 大墳さん質疑。マイクを持っていたので中継できず。後ほどフォローします。
    • 11:36  #spwit (12) 伊藤さん「漢字の要素読み上げ及び拡大表示Webアプリケーションの開発」
    • 11:40  @mushakei 次の講演が始まってしまいました。後で質問してみますね!  [in reply to mushakei]
    • 11:41  #spwit (12) 伊藤さん「漢字は日本語である」「漢点字の提案:8点。六点漢字:6点。昭和47年長谷川さん」「視覚障害者の漢字学習の現状」
    • 11:44  #spwit (12) 伊藤さん「漢字の詳細読みの説明」「従来法の課題。実際に使えるか。扱う文字数に限りがある。形や構成の情報を伝えられるか」
    • 11:45  #spwit (12) 伊藤さん「視覚障害者から漢字の形を知りたいという要望を受けた。音声による漢字の構成情報の提供が可能なシステムを開発。点字プリンタは高価」
    • 11:47  #spwit (12) 伊藤さん「動作の流れ。漢字一字を入力。説明文データベースと漢字画像データベースを検索。JavaScriptとHTMLとPerlとSQliteで実装」
    • 11:49  #spwit (12) 伊藤さん「ダイアログボックスを出す。画面の一部書き換えなどの状況を理解させるため。出力画面の例」
    • 11:52  #spwit (12) 伊藤さんデモ。スクリーンリーダ(PC-Talker)でウェブブラウザを読み上げ。「文字入力」が空欄だとエラーのダイアログ。文字数が2文字だとやはりエラー。
    • 11:53  #spwit (12) 伊藤さんデモ。「男」を入力。「上に田んぼの田、下に力持ちの力」と説明。
    • 11:56  #spwit (12) 伊藤さん「課題:要素分解の程度。階層的に説明するべき? 効率よいデータの増やし方? 画像表示のサイズ変更など。視覚障害者による試用を予定」
    • 11:57  #spwit (12) 伊藤さん「課題:熟語のそれぞれの漢字を説明してくれるとよい?」
    • 12:07  #spwit (12) 伊藤さん質疑。後でフォローします。それから (11) で @mushakei さんからツッコミいただいた件。あまり進んでないようですが長谷川先生のサイトがあるはず、とのこと。。
    • 12:08  #spwit (13) 小宮さん「視覚障害者のための意味情報を用いた仮名漢字変換における説明語選択手法の検討」
    • 12:10  #spwit (13) 小宮さん「スクリーンリーダによる文書作成。仮名漢字変換は欠かせない」デモ。変換キーを押して詳細読みで候補が読み上げられる。
    • 12:12  #spwit (13) 小宮さん「例えばコウエンという語に同音異義語がたくさんある。正しく速く仮名漢字変換をしたい。提案:詳細読みではなく意味情報を説明につかう」
    • 12:13  #spwit (13) 小宮さん「例えば「講演:演説、話す、スピーチ」。これまでの実験の結果。正解率と平均変換時間で有効性確認。連想しやすい説明語をいかに選ぶか」
    • 12:15  #spwit (13) 小宮さん「説明語を自動選択したい。単語親密度に着目。NTTデータベースシリーズ。有効性を実験で検討」
    • 12:17  #spwit (13) 小宮さん「説明語の単語親密度の分布。4~7の高親密度が使われている。でも逆は成り立つのか?連想しやすさの評定実験」
    • 12:18  #spwit (13) 小宮さん「問題例:「演劇」から「ドラマ、プレー、劇、芝居」などが「意味的に近くない、やや近い、、」などを評定」
    • 12:20  #spwit (13) 小宮さん「単語親密度が低い:意味を知らない比率が上がる。変化の大きい親密度3~4に着目。知らない率10%の閾値が親密度3.6」
    • 12:22  #spwit (13) 小宮さん「「午後」と「後」は意味的に近くないと多数が回答。デジタル類義語辞典の定義が不自然?」
    • 12:24  #spwit (13) 小宮さん「「後」には「観点:場所」と「観点:時刻」の両方がある。観点付き単語は除外すべき」「「早熟」と「ひねる」も近くないと回答。「ひねた子供」と「ねじる」の多義性」
    • 12:25  #spwit (13) 小宮さん「「ひねる」の親密度5.7は「ねじる」の意味での得点だと思われる」
    • 12:27  #spwit (13) 小宮さん「課題:音声による実験など、詳細読みとの併用」
    • 12:45  #spwit 終了。とりあえず会場かたづけます。ボイスレコーダで録音したので後で聞き返してフォローします。
    • 20:23  新幹線にて今日の研究会の録音を聞き直した。いまさらツイッターって気がしないので中継が抜けたところは後でブログに書きます。誰か私の発表と司会の間だけ中継を手伝ってくれる人を緩募。。
    • 20:27  最近買い換えたボイスレコーダー、三洋ICR-PS503RM。三洋の操作系に慣れている私には使いやすい。再生ボタン連打でちょっと巻き戻しができることにいま気付いた。

    Powered by twtr2src

    以下、生中継できなかったところの補足:

    (10) 西本の発表に対する質疑。発表概要は別途このブログに書く予定。

    • ターゲットと妨害音声のSNRの定義の確認
    • 混合法で数字の桁ごとに話者が変わるとどうなる?やっていないが、難しい課題になりそう
    • 同じ話者の妨害音声を破る側が用意できたら話者認識によって何かできそう?ターゲット音声の話者はもともと不特定話者のつもり。
    • 妨害とターゲットの話者が同じだったら?コーパスがないのでやっていないが、人間にも機械にもおそらく不利
    • 被験者が女性の場合は男性音声の聞き分けが苦手、逆もあり、という現象の可能性?
    • ユーザ登録で入力された名前を使って妨害音声を作るCAPTCHAの可能性?機械が妨害音声をコントロールできてしまうと破る側に悪用されるかも
    • 破る側と守る側に分かれてコンペをすればよいと思う

    (11) 大墳さん質疑:

    • カメラによるテレサポートを自動化できるか?画像を写すためにカメラの向きを変えてもらう必要がある。やりとりが必要。
    • MITのシックスセンスというシステムがある。カメラ画像を認識してネット情報を検索する拡張現実。同じようなことができるかも。
    • 健常者の読み書きは?仮名文字。赤外線で通信されるのは仮名の文字コード。
    • センサーを2つずつ3回で呈示するのはなぜ?指と違って体では同時に多くの振動を認識できない。3点x2回の方が「母音」「子音」に対応するのでは?
    • 次の文字とタイミングが重ならないのか?文字ごとに空き時間を作っている。
    • 段や文字の呈示スピード?熟練度に応じて変更。
    • 「打ちはじめ」を知らせては?これから送る、という合図の信号は使っている。ずっと待っているのは疲れる。

    (12) 伊藤さん質疑:

    • 男→田・力のような説明辞書をどう学習?田→口・十のような階層的データを作りたい。触覚とコラボしたい。
    • わかっているが確認したい文字、という使い方?
    • 詳細読みで区別がつかない場合の呈示に役立つのでは?
    • IMEで詳細読みを理解して入力ができる人が対象ユーザ?第2水準の文字など、形だけ知りたいというニーズがある
    • 文字を拡大して表示するのは?弱視の人を対象。弱視の人も音声を好むかも?

    (13) 小宮さん質疑:

    • 詳細読みと意味情報のそれぞれの利点と欠点?わからなくなったときにリカバーしにくいことはないか?
    • 詳細:「週刊」「週間」一文字目が同じ。一文字目がわからないと区別ができない。詳細読みが苦手なケース。
    • 意味:カタカナ語や聞き慣れない語が出現するのが欠点。固有名詞に対応しにくい。
    • 詳細:他の語では使わない難しい漢字が存在する
    • 意味:前の発表の実験の手順?二字の熟語を呈示
    • MS-IMEの同音異義語の意味ヒントの音声化と似た効果?
    • 日本語の語彙特性データベースは「語を知っているか」の尺度。意味の一義性とのミスマッチで苦労している?
    • 前提は「連想しやすい=類義語」。主観的な選択ではなく基準を作りたい
    • どのデータから何がわかり、どんなフローで何をフィルタリングするか、整理していくとよい?
  • 第50回福祉情報工学研究会1日目

    • 06:17  これから新幹線で(笑)青森へ。#spwit http://bit.ly/hSIoW
    • 06:18  ゆうべは第 82 回音楽情報科学研究会 http://www.sigmus.jp/SIG/sig200911program.html の打合せをやってました。東京大学の学生は無料で参加できることになりました。
    • 06:20  #spwit ハッシュタグ実験中 http://bit.ly/hSIoW
    • 10:54  八戸で特急に乗り換えた。
    • 12:10  青森アスパムに着いた http://f.hatena.ne.jp/twitter2/20091029121043
    • 13:04  #spwit 講演 (1) 「最新のエレクトロパラトグラフ(EPG)の臨床活用と今後の展望」山本一郎さん。「構音障害の治療のためにEPGを広めたい」
    • 13:04  #spwit プログラム http://bit.ly/hSIoW
    • 13:08  #spwit (1) 山本氏「口唇口蓋裂の症例紹介。発話機能のために手術をする」「日本では500人に1人」「後遺症である構音障害の治療に関わる言語聴覚士が人手不足」
    • 13:12  #spwit (1) 山本氏「口の機能:食べること。話すこと。味わうこと」「口蓋裂に伴う異常構音の説明。鼻咽腔閉鎖機能の不全に関係ある事例、ない事例の存在」
    • 13:15  #spwit (1) 山本氏「スピーチエイドによる閉鎖機能の改善。喉のしまりをよくする装置」「発音補助装置」
    • 13:17  #spwit (1) 山本氏「EPGが使えそうなのは閉鎖機能不全と関係ない障害。「さ=か」、「ち=き」。舌の後方化」「1978年に製品として作られたEPG。臨床には不向きだった」「現在:英国の大学のWinEPGシステム」
    • 13:23  #spwit (1) 山本氏「Redingタイプは良好。2007年に京都でシンポジウム。100人を超える実績。論文多数」「症例紹介。3歳で口唇形成術。13歳でEPG治療開始」「EPGパレートを使用。パターンの変化。視覚的フィードバック訓練。目標が具体的」
    • 13:25  #spwit (1) 山本氏「人工口蓋床の開発が必要。モジュール化してカスタマイズできる電極を開発した」「遠隔構音指導が可能」「ケータイで録音してメール添付。もっといい方法はないか?」
    • 13:26  #spwit (1) 山本氏「「目で見る日本語音の再生」というDVDを今年作成した」
    • 13:29  #spwit (1) 山本氏:質疑「100Hzで「つ」「ちゅ」の区別はつくのか?」「スペクトルと対応させれば判断できる」「聴覚言語障害の人には特に音声スペクトルの視覚化フィードバックが有効」
    • 13:32  #spwit (1) 山本氏「舌が間違っていたら絶対に正しい発音はできない」「舌の位置を視覚化する。音を視覚化する」「人工内耳の方へも有用なはず」
    • 13:34  #spwit 講演 (2) 「人工内耳装用者のための音楽の試作」北澤さん http://bit.ly/hSIoW
    • 13:38  #spwit (2) 北澤氏「人工内耳(CI)は音楽を聴くのに有効でない」「内部でどんな処理をしているか説明」「Cochlear社のACE方式の概要」「音楽情報伝達の問題点。リズムは問題なし。音の高さの弁別が困難。ピッチ、音色、メロディが聞き取れない」
    • 13:43  #spwit (2) 北澤氏「20個の電極に対応した音を用いたピッチ識別実験の結果」「被験者2名。17個は弁別できる」「聞こえの強さの調整」「G3 F4 C5 E5 G#5 C6 など音を作って聴力検査」
    • 13:47  #spwit (2) 北澤氏「震音による音楽作成例。鉄腕アトム」「人工内耳フィルターに対応した楽音の割り当て。人工内耳音階=CIS。周波数フィルタと一対一に対応する音階を選んだ」「新たに作曲した作品紹介」
    • 13:53  #spwit (2) 北澤氏「既存の曲をCISに変換した例」「特徴を保っているので曲目の推測は可能」「人工内耳使用者による評価。曲によって原曲との同一感が感じられない場合もある」「音楽らしく感じることが示唆された」
    • 13:55  #spwit (2) 北澤氏の質疑「西洋音階の半音階を含む曲は厳しい?民謡や童謡なら適している?音階の間隔は将来狭まるか?」「人工内耳の周波数分解能は上がるだろう」
    • 13:58  #spwit (2) 北澤氏の質疑「被験者の先天、後天?」「後天。高齢者。将来の対象は子供、先天性の人」「音階は子供が後天的に獲得するのでは」「和音は考慮したい。振幅変調がポイントか」「人工内耳の音楽家の意見を聞いては?」
    • 14:00  #spwit (2) 北澤氏の質疑「電極に10msくらいの刺激を与えられないか?」「300ヘルツ以上の刺激は困難」「であれば1オクターブの信号で音楽を作れないか?」
    • 14:01  #spwit 講演 (3) 「日本手話会話におけるマウジングと言い直し」坊農さん。ここまでPC要約筆記。ここからは手話通訳とPC要約筆記。
    • 14:05  #spwit 坊農さん「聴力障害の等級と手話コミュニティの説明。先天ろう:両親がろう者/聴者の各ケースあり。中途失聴。難聴」
    • 14:08  #spwit (3) 坊農さん「コーダ:children of deaf adult」「手話通訳士、手話通訳者」「ろう文化宣言。日本手話=日本語と異なる言語。言語的少数者」
    • 14:09  #spwit (3) 坊農さん「Deaf = 社会的文化的コミュニティ、民族的団体。 deaf =病理的なものを含む」
    • 14:12  #spwit (3) 坊農さん「日本手話=日本語と異なる文法」「日本語対応手話=日本語文法と対応。日本手話母語者にはわかりづらい」「マウジング=音声言語由来の口型」「完了を意味する「パ」」
    • 14:14  #spwit (3) 坊農さん「音声・ジェスチャ分析の手法で研究に取り組む。「意味解釈」「手型(右)」「手型(左)」「口型」」「手が表現する場所まで移動する準備区間をチルダで表す」「核の部分をアスタリスクで表現」
    • 14:22  #spwit (3) 坊農さん「ビデオで実例紹介。言い直しフェーズにマイジングがつく。マルチモーダル」「左手がなぜ保持されるか。単語間の修飾関係?」
    • 14:25  #spwit (3) 坊農さん「告知:10月31日から日本手話学会@東大駒場」
    • 14:27  #spwit (3) 坊農さん質疑「マウジングとマウスジェスチャーを区別することが重要?後者は言語情報。前者はパラ言語。個人差もある?」「マウジングはプロソディ。マウスジェスチャは完了の意味付加など」「ジェスチャというよりも言語?文法情報」
    • 14:29  #spwit (3) 坊農さん質疑「マウジングの再説明を」「相手が聴者でなくてもマウジングは出てくる。聞き手の理解のため。いま私は言い直しているよ、強調しているよ、という表現」
    • 14:30  #spwit (3) 坊農さん質疑「外国語でも?」「イスラエルとアメリカの手話の報告あり。たくさん出る。日本語音声との接触に影響を受ける?」
    • 14:32  #spwit (3) 坊農さん質疑「ビデオの人は日本語の発話訓練を受けた手話話者?」「Yes」「日本のろう教育:口話の指導が徹底している」「高齢のろう者は聾学校で手話を禁止されていない」
    • 14:32  #spwit 最初のセッション終了。休憩。 http://bit.ly/hSIoW
    • 14:46  #spwit (4) [招待講演]「リアルタイム字幕放送のための音声認識」今井 亨さん(NHK)
    • 14:54  #spwit (4) 今井氏「NHKで生放送のオンライン字幕がどのようにつくられているか」「デジタル放送の説明。字幕放送の行政指針」「生放送以外は字幕義務化」「2007年~2017年の総務省指針=生放送を含む7時から24時の番組すべてに字幕付与」
    • 14:56  #spwit (4) 今井氏「総務省指針の例外=複数人が同時に会話を行う生放送番組を除く」「2008年度実績。NHK総合49.5%。民放平均44.3%」
    • 14:57  #spwit (4) 今井氏「オフライン番組。パソコン上で人手で字幕入力。いろいろ工夫している。30分番組に数時間かかる」
    • 14:58  #spwit (4) 今井氏「オフライン字幕の試写を3回する。本人、スーパーバイザー、ディレクター」
    • 15:00  #spwit (4) 今井氏「オンライン字幕=「生字幕」。リアルタイムでの日本語入力が必要。2000年に音声認識によるニュース字幕を開始」「キーボードによる方式。3人で連携入力:歌謡番組など。ステノワード:入力者と校正者のペア3組、計6人」
    • 15:02  #spwit (4) 今井氏「大リーグ野球の実況はダイレクト音声認識で字幕付与。リスピーク音声認識:リスピーカー(字幕専用アナウンサー)1名、修正1名。スポーツ番組など」
    • 15:06  #spwit (4) 今井氏「ハイブリッド方式:現在研究中。全体の3割の番組が音声認識困難な自由発話ばかり」「海外の動向:裁判速記用ステノキーボード。音節列を単語スペルに変換」「米のテレビも字幕義務化。BBCはリスピーク方式」
    • 15:08  #spwit (4) 今井氏「日本語:カナ漢字変換の壁」「NHKにおける音声認識研究は1969年から。90年代に大語彙連続音声が可能に。1996年に大学等との連携プロジェクト開始。データベース構築。統計的手法」
    • 15:10  #spwit (4) 今井氏「2000年に世界初の音声認識字幕放送」「男性と女性の認識を別のエンジンで」「記者が書いた原稿で言語モデルを学習」「記者原稿は赤鉛筆で手修正。そのまま字幕にできない」
    • 15:12  #spwit (4) 今井氏「認識率100%でないと許されない。4人で認識誤りの発見・修正」「徐々にスピードワープロと併用」「現在はスピードワープロのみ利用」
    • 15:17  #spwit (4) 今井氏「リスピーク方式。場合により要約。番組ごとの言語モデル。キャスターごとの音響モデル」「生放送の料理番組で利用」「見てわかることは省略」「早く出したい、読みやすくしたい」「拍手や歓声、要約筆記と同じような配慮」
    • 15:18  #spwit (4) 今井氏「NHK広報番組の紹介」
    • 15:23  #spwit (4) 今井氏:NHK広報番組「番組ごとに辞書を管理」「実況を聞きながらリスピーク」「タッチパネル端末で誤り修正、点や丸の付与、話者ごとの文字の色」「限られた文字数でわかりやすく伝える最善の努力」
    • 15:24  #spwit (4) 今井氏:NHK広報番組「地上デジタルは字幕ボタンで」
    • 15:26  #spwit (4) 今井氏「映像を隠さないためには2行。約30文字。ページ更新は2秒くらいの周期。アナウンサーが喋る苦労。スポーツ番組の言語モデル。デーモン閣下の相撲中継の発言にも対応」
    • 15:28  #spwit (4) 今井氏「ニュース字幕は誤りが許されない。スポーツはそうではない」「研究所で取り組んでいるハイブリッド方式。記者の現場リポートも直接認識できる。インタビューなど項目ごとにハイブリッドとリスピークを切り替え。」
    • 15:29  #spwit (4) 今井氏「今の技術なら確認1人とリスピーク1人で対応できる」「ローカル制作のニュース字幕に展開したい」
    • 15:32  #spwit (4) 今井氏「最新技術のビデオ。早ければ5秒遅れで字幕送出。インタビューはリスピークに切り替え」
    • 15:37  #spwit (4) 今井氏「機材の紹介。音声認識マシンと修正用マシン。タッチすると同音異義語リストが出る。早い人は打ち直す。5分ニュースなら修正者1人で」
    • 15:41  #spwit (4) 今井氏「音声認識の要素技術の紹介。逐次早期確定。音響モデルの識別学習。音素認識による発話区間検出。言語モデルを番組中に自動更新」
    • 15:43  #spwit (4) 今井氏「今後。0.1%の誤りは許容される。インタビュー、特に「街の声」は難しいが、オープンキャプションがある」「認識の難しさを決める条件:誰が、何を、どこで、どんなふうに喋るか=3W1H」
    • 15:46  #spwit (4) 今井氏「難易度中=クローズアップ現代、生活ほっとモーニング」「報道系対談番組の自由発話=発声変形に対応した学習、対談向け言語モデル、誤り修正のデコーダへのフィードバック、話者識別」
    • 15:50  #spwit (4) 今井氏「課題:複数話者オーバラップ、外国語」「進行表1枚の事前情報から言語モデルを作れないか、十分な学習テキストが得られない場合がある」「音声認識の非専門家には言語モデルを作れない」「ダイレクト方式拡充を」「人手修正前提の低コスト化」
    • 15:52  #spwit (4) 今井氏「反響:家族で歌番組を楽しめるようになった。スポーツ選手の心理や対話の意味合いがわかる」
    • 15:54  #spwit (4) 今井氏質疑「リスピーカーのスキル、養成?最初はアナウンサーOB。現在はアナウンサー志望の人がやっている。野球や相撲などの専門知識が必要。ゼロからは訓練したことがない。訓練は1週間くらい」
    • 15:55  #spwit (4) 今井氏質疑「リスピーカー方式ならバラエティでも対応できるのでは?」「リスピークはできるが言語モデルの未知語率などが課題」
    • 15:56  #spwit 休憩。 http://bit.ly/hSIoW 次は4時から。
    • 16:02  #spwit 最後のセッション http://bit.ly/hSIoW
    • 16:04  #spwit (5) 「講義音声認識に基づくノートテイクシステム」河原さん「背景:大学で学ぶ聴覚障害学生が増加」「ノートテイカーの養成が急務」
    • 16:06  #spwit (5) 「発話内容をすべて書き起こすことは困難。専門的な講義内容をノートテイカーが理解することは困難。一般教養は容易だが専門の講義は他分野の学生にできない」
    • 16:08  講演者によって「先生」にしたり「さん」にしたりする基準が難しいのでtsudaるときの敬称を統一してます。。
    • 16:10  #spwit (5) 河原氏「放送との違いは要求されるクオリティ。そこにいる学生がその一瞬見て理解できればよい」「発話スタイルの問題、専門用語の問題」
    • 16:15  #spwit (5) 河原氏「モデル適応の先行研究:教科書やスライドの利用」「本研究:同一講師が以前に行った講義の内容を用いる適応」「書き起こしのコストの問題。認識結果の活用?」
    • 16:18  #spwit (5) 河原氏「正しく認識された文を自動選択?ノートテイカーが字幕に送った認識結果を使う」「音声認識評価実験。話題語の定義、再現率、適合率」
    • 16:24  #spwit (5) 河原氏「選択修正画面。支援実験の説明。手書きノートテイカーと同時に運用。PC2台をLAN接続。音声は無線で伝送」
    • 16:30  #spwit (5) 河原氏「評価。手書きテイクの1.8倍のテイク量。平均遅延時間9秒程度。」「学生相談室を通じてヒアリングを実施。手書きよりも分量が多い。数式は無理矢理タイプしなくて良い」
    • 16:36  #spwit (5) 河原氏。Julius2IPtalkのデモ「IPtalkの確認修正パレットに音声認識結果を流し込む。このソフトは公開予定」「告知:11月28日に京都大学でシンポジウム」
    • 16:37  #spwit プログラム http://bit.ly/hSIoW
    • 16:43  #spwit (6) 「音声対話を用いた点字学習システムの開発」柴原さん「点字学習の必要性」「点字学習支援の関連研究」「提案システム=反復練習。自学自習。ガイドをコンピュータに担わせる」「例:音声入力を点字で確認する」
    • 16:49  #spwit (6) 柴原さん「マルチモーダルの階層アーキテクチャの説明。デバイスが交換可能。ユーザの習熟度。ユーザのデータの蓄積」「タスクの記述。データ構造」
    • 16:51  #spwit (6) 柴原さん「予想される問題:音声認識率。対策、特定話者のモデル」「ユーザの読み取り誤りを正しく検出する必要。点字パターンの読み取り誤り傾向を考慮した音声認識辞書の動的生成」
    • 16:53  #spwit (6) 柴原さん「実装。点字ディスプレイ=ブレイルメモポケット。音声認識=Julius。音声合成はGalateaTalk」「C++、Java、Grailsで各階層を記述」
    • 16:55  #spwit (6) 柴原さんデモビデオ「(システム)これはなんと書かれているでしょう」点字ディスプレイ呈示「(ユーザ)あ、い」「(しすてむ)正解です・・・」
    • 16:59  #spwit (6) 柴原さん質疑「目的に対して使用した枠組みが大がかり?」「標準化の利点。開発の効率」「点字のニーズが減っているのでは?」
    • 17:01  #spwit (6) 柴原さん質疑「文章読み取りの学習に進んだら自動点訳が必要?」「2層に組み込む。上の層からは抽象化したい」
    • 17:02  #spwit (7) 「構音障害者の音声認識における動的特徴量の考察」宮本さん
    • 17:05  #spwit (7) 宮本さん「構音障害とは。不随意運動(アテトーゼ)の説明」
    • 17:08  #spwit (7) 宮本さん「音声認識の特徴量。MFCCとデルタMFCCの説明。従来の音響モデルでの構音障害者発話認識は困難」「構音障害者の音響モデルの作成」「デルタMFCCの認識率が低い。健常者と比べて時間変化の表現に問題」
    • 17:11  #spwit (7) 宮本さん「デルタMFCCのセグメント特徴量に着目。前後数フレーム分の特徴量を主成分分析=PCAで次元圧縮」
    • 17:15  #spwit (7) 宮本さん「2人の話者で評価。認識精度の改善が見られた」
    • 17:15  #spwit (7) 宮本さん「今後の方向性。声質変換で聴き取りやすい声にするなど」
    • 17:18  #spwit (7) 宮本さん質疑「個人ごとに特徴量を変えるべき?」「Yes。特定話者でやるべき」「人間は聞いていると聞き慣れてくる。機械学習の可能性を示唆?」
    • 17:20  #spwit (7) 宮本さん質疑「セグメント特徴量は健常者音声に効果あり?」「未検討」「PCAでどのような特徴をつかんでいることになる?」
    • 17:24  #spwit (7) 宮本さん質疑「音響モデルがモノフォン?」「データが増やせないから」「54音素?」「構音障害者のための音素体系」「デルタ計算の窓幅とセグメント特徴量の関係?」
    • 17:25  #spwit (7) 宮本さん質疑「連続音声認識でも有効?」「言いよどみなど、言語モデルの考慮も必要」
    • 17:26  #spwit (7) 宮本さん質疑「語彙:210単語」「話者適応で対応できるか?」「検討した。提案手法のほうが高性能」
    • 17:31  #spwit 最後に議論。(6) のカリキュラムの作り方について追加質問。これから懇親会。

    Powered by twtr2src

  • CEATECにて

    来年度の福祉情報工学研究会(WIT)をCEATEC展示会の中で開催する案が出ているので、下見をかねて、幕張メッセの CEATEC に行ってきました。

    企業の新製品発表など、いろいろ報道もされていますが、大学やNICTさんの展示ブースもありました。もし来年この場所での研究会が実現したら、研究会の関係者の皆様にいろいろ回っていただけるので、よいことだと思います。

    WIT 関連でいえば、たまたま「アクセシビリティ PLAZA 」というブースが目に入ったのでお話を伺ってきました。(社)ビジネス機械・情報システム産業協会(JBMIA) の方が、JIS X-8341-5(高齢者・障害者等配慮設計指針:事務機器)の説明やバリアフリーコピー機の実演などをしておられました。

    毎年展示しているが、レポートの課題を課せられた大学生などがよく来てくれる、会議場を取るためにお金がかかるので展示のみで講演などはやっていない、というお話でした(対応してくださったのは(株)リコーの方でした)。

    こういった展示をされている方を研究会にお招きしてお話をしていただいたり、見学に来る大学生を積極的に研究会に誘導したり、いろいろ工夫できるのではないかと思いました。

    受付はWebで名前を事前に登録してコンファレンス予約などを行い、会場でバーコードリーダーまたはEdyリーダーを使うセルフサービス方式でした。研究会の入場者にもこういったことをお願いすることになるのでしょうか。うまく情報を共有できれば研究会としてもメリットがあるかも知れません。。

    あまり時間がなく、限られたブースしか見ることができませんでしたが、個人的に興味があって、並んで触ったのはSONYのVAIO Wでした。左手で持ちながら右手で操作してみましたが、紙のように軽く、Windows 7も軽快でした。初めて Let’s Note T1 の実機を触ったときの、あの衝撃に近いものを感じました。あの頃の Panasonic の立ち位置にいま SONY がいるような気がします。。

  • 音声CAPTCHAに関する発表予定

    第50回福祉情報工学研究会(2009年10月29日(木)~30日(金)、青森県青森市で開催)において、下記の発表を予定しています。

    • 著者:西本卓也(東大)・松村 瞳(東京女子大)・渡辺隆行(東京女子大)
    • 題目:音声CAPTCHAシステムにおける削除法と混合法の比較
    • 概要:我々は音声聴取課題によって対象者が人間であるか機械であるかを判別する音声CAPTCHAシステムに着目し、普遍的な設計方針の体系化を踏まえて、音韻修復効果を用いた「削除法」を提案している。本報告では「機械による破られにくさ」の予備的検討として、提案法である「削除法」および既存システムの主流である「混合法」について音声加工の条件の違いが音声認識性能に与える影響を報告する。

    これに関連して、最近気になっていることを書きます。

    先月、郡山の音響学会の3日目に「音バリアフリー」会場にいたのですが、

    • 3-10-12 単語了解度を指標とした高齢者の会話のしやすさについての検討-喫茶店を事例に-,根津さん、永幡さん(福島大学)

    の質疑応答で鈴木先生(東北大学)がおっしゃった Informational Masking (IM)という話がずっと気になっています。

    もともとの発表は、高齢者は喫茶店(他のグループの会話で妨害されやすい状況)で、背景に音楽が流れている方が会話がしやすい、という報告でした。音楽のおかげで他のグループの会話がマスキングされ、自分たちの会話に集中しやすくなるのではないか、という考察です。

    IMについて探してみると、こんな記事がありました:

    音声を聴き取りにくくする妨害に関して、「エネルギーによるマスク」「情報によるマスク」という概念が出てきます。

    昨年から「音声CAPTCHA」の実際の利用例をあれこれ聞いているのですが、その両者がありそうです。

    ちなみに私が去年発表したのは「削除法」というアイディアでした。エネルギーによるマスクの最も極端なケースとも解釈できそうですが。。

    • 福岡 千尋, 西本 卓也, 渡辺 隆行: “音韻修復効果を用いた音声CAPTCHAの検討,” 電子情報通信学会 技術報告(福祉情報工学研究会、ヒューマンインターフェース学会研究会と共催), WIT2008-54, pp.83-88, Dec 2008.

    上記のサイトはこんな文献を引用しています:

    • Watson, C.S. (2005). Some Comments on Informational Masking. Acta Acoustica 91, 502-512.
    • Durlach, N.I., Mason, C.R., Kidd, Jr, G., Arbogast, T,L Colburn, H.S.,and Shinn-Cunningham, B.G.(2003). Note on informational masking. JASA. 113, 2984-2988.
    • Tanner, W.P., Jr (1958 and 1964). What is masking? JASA 30, 919-921.reprinted and updated as Chapter24 in J.A. Swets (1964). Signal Detection and Recognition by Human Observers: Contemporary Readings, John Wiley & Sons, New York.
    • Carhart, R., Tillman, W., and Greetis, E.S. (1969). Perceptual masking in multiple sound backgrounds, JASA 45, 694-703.
    • Neff, D.L. and Green, D.M. (19987). Masking produced by spectral uncertainty with multicomponent maskers, P&P 41, 409-415.
    • Kidd, Jr, G., Mason, C.R., and Arbogast, T.L. (2002). Similarity, uncertainty, and masking in the identification of nonspeech auditory patterns, JASA 111, 1367-1376.

    私はこの話が「音声CAPTCHA」に絡む話だと気づいて勉強を始めたばかりです。

    8月ごろから音声CAPTCHAの課題設計と予備実験をやっているのですが、(実は数日中に原稿執筆と被験者実験をやらなくてはいけない。。)HMM で音声認識されにくい妨害音声の条件が、「IMが起きやすい雑音」にも対応しているように直感的に思えます。

    上記Webページの筆者である Yost は「IMは選択的注意の失敗である」と述べています。私としては、自分の実験に取り入れたい視点と思いつつも、中途半端に手を出すと危険そう、という気もしてきたので、迷いつつ、そろそろ時間切れで実験方針を決めなくてはいけません。

    私が注目していたCMUのプロジェクト reCAPTCHA は大学からスピンアウトして、そして最近 Google による買収が報じられました。音声CAPTCHAについても、古いラジオ番組の音声を聞き取りの課題にする、という面白い試みがなされていた(日本人が聴き取るには結構ハードな課題でした)ので、オープンに研究成果が発表されなくなるとしたら残念なことですが。。

    こういった議論は、私が世話役を務めている(そして最近サボっていた)「音声・音楽研究会」のメーリングリストでも行っていく予定です。お気軽にご参加ください。

    そして、今月末の青森での研究会にもふるってご参加いただければ幸いです。

    青森にはこんな活動をしておられる方もおられます。

    • 2009-10-08 追記: 西本の発表予定のタイトルを訂正しました。
  • 学会予稿PDFのアクセシビリティ

    福祉情報工学研究会(WIT)が公開している論文作成・発表アクセシビリティガイドラインには「論文作成アクセシビリティガイドライン」が含まれていますが、PDFに関する情報が含まれていません。研究会では墨字の予稿集を発行しており、視覚に障害をお持ちの方から御要望をいただいた場合にはテキスト版やPDFデータをご提供しています。

    多くの学会で研究会の予稿を電子版のみにすることが一般的になりつつあります。国際会議でもCD-ROMやUSBメモリでProceedingsを受け取ることが多くなりました。

    事実上の標準となっているPDFですが、原稿執筆者のためのアクセシビリティに関する情報をまとめてみると

    Microsoft Word 以外の手段で論文を作成する人向けのガイドラインが見あたりません。

    Microsoft Word で「タグ付きPDF」を作る場合には、作業は「視覚的構造ではなく論理的構造を考慮したWord文書を作る」ところにかかっています。

    Linux 環境で platex と dvipdfmx によって作成された日本語のPDFデータは、Windows 環境の Adobe Reader 9 で開いた感じでは2段組などの構造を反映できていないようです。

    これまでWIT研究会では、視覚障害をお持ちの方のために「予稿のプレーンテキスト版」を著者の方に作っていただくことが一般的でした。最近は PDF の読み上げソフトウェアをお持ちである方が多いようですが、例えば2段組を正しく読み上げられない PDF データについては相当苦労されるのではないかと思います。

    現実的には

    • Microsoft Word で原稿をお作りになる場合は Adobe 社などのガイドラインに従っていただく
    • LaTeX で原稿をお作りになる場合は、TeX ソースを元に別途テキスト版を提供していただく

    ことになりそうです。こういった目的のために、例えば detex というツールは Linux では古くから使われています。

    しかし、これでいいのだろうか、と疑問に思います。そもそもLaTeX の方が「陽に構造を記述するマークアップ言語」のはずだから。

    もしこの問題に取り組んでおられるプロジェクトなどをご存じでしたら、ご一報いただければ嬉しいです。

    もうひとつ確認してみたいのは OpenOffice.org の PDF 出力機能です。現在 OpenOffice 用に論文原稿のテンプレートを提供する学会等は聞いたことがありません。しかし、OpenOffice には標準で PDF 出力機能が備わっているので、もし「タグ付きPDF」をきちんと生成できているのなら「アクセシブルな学会予稿作成手段」として推奨できる、という日が来るかも知れません。

    あるいは、こうした場面でも「マルチメディアDAISY」が役立つ日が来るのかも知れません。

    • 追記(2009-10-04) : detex は Ubuntu Linux 9.04 の場合は texlive-extra-utils に入っています。
  • HCGシンポジウム準備状況

    私は電子情報通信学会・福祉情報工学研究会(WIT)の副委員長を務めており、障害をお持ちの方を支援する技術に関する研究会活動を、当事者の方に参加していただきながら続けております。

    私たちのWebサイトではこういった活動のノウハウも掲載しています:

    そして私は現在WITからのリエゾン委員として、2009年12月10日(木)~12月12日(土)に札幌コンベンションセンター (札幌市) で開催される「2009年度HCGシンポジウム」のプログラム委員および情報保障を担当しています。

    昨日プログラム編成会議が行われ、研究発表の時間帯がだいたい確定しました。視覚障害、聴覚障害、発達障害、Webアクセシビリティ、高齢者支援などに関する御発表が多数予定されています。その一方で、広く「ヒューマンコミュニケーション」に関する研究発表が一同に会する予定でもあります。非常に興味深い御議論や御交流が期待できます。また講演だけでなくインタラクティブ発表も予定されています。

    約80件の発表申込をいただきました。大変感謝しております。近々プログラムを発表し、参加募集を行い、情報保障の要望の受付を行います。

    詳細は WIT 研究会のサイト、HCGシンポジウムのサイト、そしてこのブログやTwitter (@nishimotz) などでも随時お知らせする予定です。

    特に「情報保障の都合に合わせた運営」を最初から前提にしてしまうのは好ましくありません。できるだけ多くの方に楽しんで参加していただきたいと思っています。

    とはいえ、パラレルセッションやインタラクティブ発表における情報保障については「未知との遭遇」です。インタラクティブ発表については「一人30秒の概要発表」も予定されています。御要望には可能な限り対応したいのですが、幅広く皆様からお知恵をお借りすることもあると思います。

    プログラム作成において以下のようなことを配慮しています。

    • できるだけ Room A に福祉情報関連の発表が集まるようにして、特に、聴覚障害はひとつのセッションにまとめました。
    • WEIMS2009 http://www.mrit.kyushu-u.ac.jp/weims2009/ との日程調整の御要望をいただいたので、WITからの申込という属性がついている発表は、3日目を避けていただきました。
    • 日程については発表を申込された方の個別の要望も基本的にお受けしています。
    • 聴覚障害関係のインタラクティブ発表が複数あります。できるだけ近づけて配置していただくように、配慮をお願いしました。(現時点で発表者の方はみなさま健聴者と伺っています)
    • 車椅子でのインタラクティブ発表を予定しておられる方について、場所の配慮をお願いしています。

    現在のところ下記の方針を考えております。

    情報保障を希望される方への対応方針:

    • なるべく具体的に要望を受け付ける=「どの発表について」「手話と要約筆記のどちらを」希望されるのか(両方、でも構いません)
    • 招待講演や懇親会についても、要望を伺い「事前の要望があれば対応します」と宣言させていただく(通訳者の方の拘束時間は事前に確定する)
    • どういうやり方で情報保障を提供するか、希望された人となるべく密に連絡を取りながら準備を進める(特にインタラクティブ発表についてはWITでは未経験。PC要約筆記が実施できない、などの制約がある)
    • 万が一パラレルセッションの両方で要望が発生した場合は、プログラム委員会にて相談させていただく(情報保障担当者を複数グループ手配することは困難が予想される)

    発表をされる方への対応方針:

    • 実際に要望があった発表については、発表者に事前に連絡し、協力を依頼する。=通訳者に対する事前の情報提供などを協力していただく必要がある

    現在、手話通訳や要約筆記の手配や申込締切などの詳細を検討中です。また、点字版の資料についても準備をする予定です。予稿集は電子データでの出版を予定しています。皆様のご参加をお待ちしております。

  • HCGシンポジウム発表締切延長

    「2009年度ヒューマンコミュニケーショングループ(HCG)シンポジウム」(12/10~12開催)の発表申込締切を 9/17(木) に延期いたしました。皆様奮って発表申込み頂けますようお願い申し上げます。

    招待講演としてクリプトン・フューチャー・メディア株式会社 伊藤 博之 社長による御講演「初音ミク as an interface」および、ヒューマンコミュニケーショングループの設立に携わられた元・東京大学の 原島 博 先生による御講演を予定しております。

  • HCGシンポジウムとWEIMS2009

    12月に開催される研究集会 WEIMS2009 の案内が届きました。科学・数学文書へのアクセシビリティがテーマです。

    12月10日~12日のHCGシンポジウム http://www.ieice.org/hcg/sympo2009/ と日程が1日かぶってしまいます。福岡と北海道なので、掛け持ちをされる方は移動も大変と思われます。

    今回のHCGシンポジウムはもともと3日目を(発表件数が多かった場合の)予備日としており、できるだけ12月10日および11日に発表を集めるようにプログラム編成を行う予定です。また、公式にはアナウンスしていませんが、発表日に関する希望があれば、可能な限り考慮する予定です。

    両方のイベントに参加をお考えの方はお気軽に御相談いただければ幸いです。

    なお、関連分野のイベントとの日程調整について、WIT研究会では関連イベント日程のページ http://www.ieice.org/~wit/about/link.html を作成しつつ配慮を行うように努力をしております。ぜひWIT幹事団宛に関連イベントの情報をお知らせください。

  • HCGシンポジウム

    電子情報通信学会ヒューマンコミュニケーショングループ(HCG) では, 2009年度HCGシンポジウムを下記要領で開催致します.今シンポジウムは,昨年度までのHCG所属研究会の合同開催という形式ではなく,研究会に関係なく全発表申込を統一枠で取り扱い,関連研究を集めてセッションを組むことで,研究会間の交流を目指す新たな形式にて執り行うこととなりました.

    従来のオーラル発表に加え,ポスター形式のインタラクティブ発表も募集いたします.幅広い分野からの多数のご参加をお待ちしております.

    • 発表申込締切:9月11日(金)
    • 原稿投稿締切:10月13日(火)

    発表申し込み手順は http://www.ieice.org/hcg/sympo2009/ をご覧ください。

    なお、HCGシンポジウムで御発表いただく研究について、論文誌特集号への推薦を企画しています。2009年HC賞の発表も合わせて行います。また、西本は(前回に引き続き)プログラム委員および情報保障を担当しています。

    追伸:2010年3月のWIT研究会は、現在「詳細未定」となっていますが、東京(武蔵野)のNTT研究所での開催が予定されています。NTTの特例子会社のNTTクラルティさんに協力頂きまして見学会や招待講演が計画されています。詳細は追ってお知らせします。