カテゴリー
wit

総合大会イベント企画

2010年3月16日の予定ですが、電子情報通信学会総合大会(会場:東北大学)のイベント企画(WIT/ADD提案)で、下記をオーガナイザーとして進めています。

  • 講演:馬塚れい子先生(理化学研究所)
  • 題目:言語のメロディーを学ぶ:日本語の韻律獲得研究から見えてくる言語発達のメカニズム

当初は、発達障害、福祉情報工学に関わりの深い脳科学の知見をご紹介いただく、ということで企画をしたのですが、馬塚先生の韻律獲得研究のお話を詳しく伺える機会となり、非常に楽しみにしております。

私も関連分野の話をちらっと聞いたことがあるのですが、生後数ヶ月の幼児がなにかを理解したか、記憶しているか、といったことを調べる研究は、本人に「分かりましたか?」「どちらですか?」と聞いて答えてもらうわけにはいかなかったりします。

実験手法そのものが「なるほど」と思えるようなアイディアの産物であったりします。多くの方に興味をもって聞いていただけるお話になると期待しております。

電子情報通信学会2010年総合大会の講演発表申込は1月6日締切です。福祉情報工学関連の一般講演の御発表もふるって御検討いただければ幸いです。

カテゴリー
wit

1月研究会

2010年1月8日(金) – 1月9日(土) に芝浦工大(豊洲)で開催される福祉情報工学研究会のプログラムが下記に掲載されました。

WIT研究会10周年を記念して2日目は特別プログラムとなっています。

なお HCGシンポジウム はWebでの事前受付を行っています。当日の混雑緩和のため、できましたら12月8日(火)までにご登録ください。

カテゴリー
nvda

NVDA日本語化プロジェクト

今夜行われた定例ミーティングにおけるつぶやき。

プロジェクトの紹介は「NVDAjpプロジェクト」をご覧ください。

議論の途中で私が触れた「まつもと流」は、まつもとゆきひろさんと梅田望夫さんの記事(シリコンバレーからの手紙) 「目からうろこが何枚も落ちたオープンソースの“人間的本質」 のこと(「ほとんどの人は、適切な大きさと複雑さを持ったいい問題を探しているんですよ」)です。

  • 19:44  NVDA日本語化プロジェクト定例ミーティング。開発に貢献できる人材を増やすための勉強会の可能性を検討している。気の長い話ですみません。。
  • 19:45  Hackathonっていうのか。こういう勉強会のことを。。
  • 19:45  #nvdajp ハッシュタグ実験中
  • 19:47  #nvdajp 寺田さんからploneのユーザ会の実例を伺う。
  • 19:58  #nvdajp IMEの読み上げの検討課題。MS-IMEのウィンドウを監視して文字を引っこ抜く手法の展望。
  • 20:02  #nvdajp 貢献してくださる方にどんなメリットがあるか?シャトルワース流?レッドハット流?「手頃な問題」=まつもと流?
  • 20:04  #nvdajp マニュアルの翻訳は誰にでも手伝ってもらえる?我々の問題はゼロからSRを作ることではないので、比較的手頃な問題がたくさん転がっているはず。
  • 20:07  #nvdajp ユーザ会を組織化するべき?MLでテストをしてくださる方は嬉しい。ちゃんとNPOにしなくても?任意団体ならすぐにでも。お金を扱うためには法人化。
  • 20:11  #nvdajp 現状を確認=UAI研究会の1つのプロジェクト。お金が動く場でないからこそ関わりやすい立場もある。
  • 20:13  #nvdajp 企業がNVDAにコミットする目的。Webを使う人の母数が広がることはWeb業界の成長につながる。社会貢献。
  • 20:23  #nvdajp 勉強会をやるとしたら。一つは初心者対象=PC持参でとにかくインストールして触ってみる人。もう一つはIMEなり音声なり問題を絞って技術的な議論をする、コードレビューする、などなど。Python というより Win32 に詳しい人。
  • 20:26  #nvdajp 中間レベルの活動を設定するのは難しいかも。技術的な活動だけやって人が集まらないと寂しい。人が集まらなくてもYouTubeとかで情報発信すれば次につながる?
  • 20:30  #nvdajp 過去の議事録をまとめて公開する場を。sourceforge の wiki を活用しては?
  • 20:33  #nvdajp IME読み上げ。必要な機能の絞り込み議論は必要。
  • 20:42  #nvdajp 勉強会を年内に開催するのは日程的に難しそう。まず飲み会=忘年会からはじめては?
  • 20:51  #nvdajp 試してみたいこと:NVDAのdisplay.pyからmecabを叩いてみる。寺田さんが前向きに検討。
カテゴリー
twitter

orpheus_tw

こんなものを作っています。

Mon, Nov 16

  • 23:08  歌詞を入力すると東京大学「自動作曲システム オルフェウス」で作曲し、その曲をTwitterの@orpheus_twのツイートとして公開するシステムを作っています http://orpheus-tw.heroku.com/

Tue, Nov 17

  • 09:10  フォロー感謝 @orpheus_tw どういうbotに育てていけばよいのか、御意見を伺いたいです。

なお、作曲された曲のデータは1ヶ月しかサーバに保存されません。

heroku ってなに?という方は私の記事 heroku をどうぞ。残念ながら無料サービスの範囲内では実現できず、$15/month のオプションである delayed job を使っています。

オルフェウスについては 自動作曲システムオルフェウスの説明 をどうぞ。

今年の流行語「クラウド」をただニュースとして追いかけるのではなく、rails と git を覚えて、手を動かしてみるのが(いろいろ落とし穴もあったけど)楽しいです。どうして日本には heroku のようなサービスがないのだろう。。

カテゴリー
twitter

ツイート

だんだんまとまった文章を書くことがおろそかになりつつあります。。

Tue, Nov 10

  • 09:11  いまTwitter界隈から起きつつある社会の変化が「リアルタイムWeb」の普遍的な現象なのか、Twitterでなくてはならないのか、それが気になる。アメブロを採用した日本の首相はいずれ「アメーバなう」を使うと思うので。
  • 09:14  インターネットのインフラの「自前主義」は戦略的に見直す時代かも。例えば日本政府は日本の企業のサービスにこだわるのだろうが、過去に日の丸OSも日の丸PCも失敗したじゃないか。。
  • 09:19  複数の類似サービスを有機的に連携させれば、自前主義でなくても特定企業のサービスへの過度な依存のリスクは回避できる。手段ではなく結果・効果にこだわるべき。例えばgmailを使わないのも、gmailしか使わないのも、リスクのように思える。
  • 21:23  加藤ただし「エンジニアのための開発生活ガイド」 講談社ブルーバックス を読んでいる。工学系大学研究室の研究生活ガイドとしてお勧めできるが、大学から出たことがない私には社会勉強になる。

Wed, Nov 11

  • 08:02  学会の研究会予稿や論文誌がどんどん電子化されているが、いずれkindleのようなデバイスで読むのが当たり前になるかも。情報処理学会はPC画面に特化した横長の書式を導入したけれど、早まったのではなかろうか。。

Thu, Nov 12

  • 11:27  科研費や共同研究に頼らずに、法人や個人から少額の寄附金を幅広く集めて活動し、目的に合わせて成果の社会還元方法を選択する、NPO型の研究プロジェクトができないだろうか、と常々考えている。
  • 17:06  WIT(福祉情報工学研究会)更新しました http://www.ieice.org/~wit/
  • 22:22  クラウドの課金の説明とか読んでると、遠い昔の大型計算機のTSSってこんな感じだったのかなあ、と思う。だとしたら大学の研究室がAmazonにお金払ってサーバを借りるのも当たり前になるのかな。。

Fri, Nov 13

  • 00:01  久しぶりに heroku を触った。 http://ja.nishimotz.com/heroku
  • 00:31  「天才数学者はこう賭ける~誰も語らなかった株とギャンブルの話~」を読み始めた。読みにくいと不評らしいのだが、私はプロローグと第1章ですでに大満足している。。100年前のAT&T、50年前のベル研。。
  • 08:49  TSSに反応されてしまった。大昔と違うのは、昔はパンチカードでいまはシンクライアントってところでしょうか。それとも昔はFORTRANでいまはMapReduceか。。
  • 12:06  HCGシンポジウムの事前受付を開始しました http://www.ieice.org/~hcg/sympo2009/
  • 23:57  自分の研究活動や学会活動の意義や現状について情報発信をしている研究者がまだまだ少ないと思う。でもみんなそんなことする暇があったら論文を書かなければ生き延びられない、という現実があるのもよくわかる。悪循環。

Sat, Nov 14

  • 11:50  メーリングリストや電子掲示板では得られない価値のために「実際に人が集まる学会・研究会」は重要だ。でもTwitterのリアルタイム性、カジュアルさ、人との交流しやすさ、そしてアクセシビリティは、とても大きな可能性だと感じる。
  • 14:39  音声認識どんどん使って見せるべき。そしてまだまだ不完全、もっと研究が必要だということも広く理解してもらうべき。
  • 16:30  とはいえ、短期的な利益に繋がらなくても、真実を探求したり、社会理念を実現したり、不測の事態に備えたりする科学研究は、日本が誇らしい国であるために必要。言語や音声の研究って、安直に仕分けされるような近視眼的な仕事ばかりではないはず。

一部ID入りの発言を修正しました。

カテゴリー
ononken

昨日の音音研

第62回音音研を開催しました。

2009年11月5日(木) 18:30-21:00頃 参加者8人

  • 話題提供1:西本卓也
  • 話題提供2:帝京平成大学・川島尊之先生 (19:40ごろ)
    • テーマ:音源分離知覚について(続編)
    • エネルギー的マスキングとインフォメーショナルマスキングの問題、音源分離と群化手がかりの知覚、順応に着目した実験のご紹介など。
  • 過去の記録・参加方法など

ネット中継による遠隔地からの参加の実験をしました。西本の実験の途中あたりから stickam.jp に接続しました(75個の音声を聞いていただいている間は時間があるのです)。

Twitterの@nishimotzで告知をしたところ、お一人の方に stickam でご参加いただけました。

使用したのは Thinkpad X300 の内蔵マイクおよび内蔵カメラでした。説明の文章も効果音もタイトルも何も準備できませんでした。

オランダの田中先生(音音研の初代主催者)も少しだけ stickam でご参加くださいました。音声も映像も比較的良好とのことでした。

現在は、田中先生のともした火を絶やさないように、私の無理のない範囲で続けさせていただいていますが、こうした形でご参加いただけたことを嬉しく思いました。

会場に来られた方の中には「ここに来ないで参加して、どんな風になるのか試してみたい」という興味をお持ちになった方もおられましたが、一方で「やっぱり会場で話を聞くのがよいのでは」という御意見もありました。

いずれにせよ、技術の進歩や普及によって、研究者コミュニティという場に新しい可能性が広がっていることを、ひしひしと感じています。

旧来のツール=メーリングリストだけでなく、ブログや YouTube などによる情報発信、twitter や stickam といったリアルタイムの情報共有ツールを利用することで、これから何ができるのか、どんな方々と交流ができるのか、ますます楽しみになってきました。

カテゴリー
wit

音声CAPTCHA報告と明日の音音研

御報告が遅れましたが、下記の発表を10月30日に行いました。

  • 西本 卓也, 松村 瞳, 渡辺 隆行: “音声CAPTCHAシステムにおける削除法と混合法の比較,” 電子情報通信学会技術報告(福祉情報工学研究会・音声研究会), WIT2009-64/SP2009-58, pp.55-60, Oct 2009.

予稿には間に合わなかったのですが、被験者8人の被験者実験データで暫定的な御報告をしました。その間に松村さんが頑張ってくれたので、現在はもう少し被験者の数が増えました。

明日の「音声・音楽研究会」の最初の時間をお借りして、被験者実験を公開でやってみたいと思います。機材の都合がありますので事前にお申し出くださった方に限らせていただきます(お二人の方にお願いする予定です)が、見学してくださっても構いません。

19:40ごろから帝京平成大学・川島尊之先生の「音源分離知覚」の話(前回のお話の続き)を伺う予定です。音源分離知覚とCAPTCHAの深いところでの繋がりを議論できれば、と思っています。

前回、私のブログを読んだ方が飛び入りで参加してくださいましたが、今回も歓迎です。そして以前からの懸案だったネット中継(具体的には stickam 中継)を試してみるかも知れません。

終了後に、久しぶりに皆様とおいしいお酒が飲めるのを楽しみにしています。

カテゴリー
mentalcare

メンタルケア講習会

先日、大学主催の「メンタルケア講習会」に出席した。とても勉強になった。いろいろな意味で「かつては常識だったこと」が非常識になりつつあることを知った。

配付された資料は「学生の目に触れないように」と書かれていたので、講演の内容だけ紹介しておく。

私のメモの取り方の不正確な点や勝手な解釈が含まれている可能性もあるので、こういった問題でお悩みの方は、こんなブログの怪しげな情報(笑)に頼らず、適切な専門家に相談することをお勧めしたい。

*****

うつ病が休学や退学の主要な原因となっている。大学生の自殺も増加している。

うつ病は「心の風邪」か?「誰でもかかる」という意味では「心の風邪」。一生を通じてだと20%の人がかかると言われる。しかし「簡単にはなおらない」という意味では風邪と大きく違う。

心の病か?という質問の答えは「No」である。睡眠や疲労の状態によって物事の「とらえ方」が変わる。うつ病は心身に起因する。だから予防が可能。

うつ病は、半分は生活習慣病。

(1)睡眠・休養を取る

昼間に活動して夜に休む。規則正しい生活を。自然のリズムを無視すると、人間の生活は「25時間周期」になり、眠れない、起きられない、といった症状になる。「睡眠表」をつけることが治療の出発点。

夜に布団の中で携帯電話を使うのはよくない。瞳孔が開いているときに発光する画面を見ると不眠につながる。

個人の体質の違いによって「必要な睡眠時間」は異なる。誰もが「短時間睡眠」でよいわけではない。一般に芸術家や学者には long sleeper タイプが多い。

睡眠不足が1~2年続くと「手遅れ」になる。心の病だけでなく糖尿病やガンの原因にもなる。

「部屋の雰囲気で深夜まで帰れない」状況を避ける。

昼寝をするべき。ただし20分まで。午後3時までが有効。土・日も規則正しい生活を。

(2)深酒をしない

「不眠や不安にアルコール」は醒めたときに危険。衝動的・突発的な自殺につながる。

(3)運動をする

酸素をたくさん取ることが心の健康につながる。適度な有酸素運動を。ジョギングや水泳。数十分でよい。夕方6時頃の運動が快眠につながる。

(4)ストレスを避ける

互いに助け合う雰囲気を。放置しない。大学院生の将来は研究オタクではなく普通の社会人。論文期限や就活の時期には特に注意を。心配なときは親に連絡をして協力してもらうべき。相談センターに行くことを勧める。無理矢理行かせては駄目。

東京大学には現在「なんでも相談コーナー」がある。毎月200件近い相談がある。

みんなが生活バランスを大事に。ひとりひとりの性格に合わせて個別に方法を考える。問題の原因を追及するのではなく、協力して出口を探す。起こった問題に関して、よい結果を得ることが大事。結果で判断する。

精神医学・教育心理学・発達心理学の知見に逆らわない。

カテゴリー
wit

SP/WIT研究会の感想など

充実した研究会でした。1日目は40人、2日目も30人近くの参加者がこられました。また、1日目はPC要約筆記を実施し、一部の発表について手話通訳も実施しました。聴覚に障害をお持ちの方が4名いらっしゃったとのことです。

個人的には、自分の研究に関する情報収集を通じて出会ったブロガーの方に研究会に来ていただけたことが嬉しかったです。

また、ツイッターで中継をしていたときに、あるフォロワーの方から質問をいただき、そのセッション内で私が発表者にそれをお伝えして、返事をまたフォロワーの方に返す、というやりとりができました。

ブログとツイッターが学会活動にもたらすであろう、大いなる可能性を実感する、私にとってはそんな意義深い研究会になりました。

さらに、来年10月のPRMU/SP/WIT研究会では、ぜひ「音声認識による情報保障」にチャレンジしましょう、というお話が出たことも、とても嬉しいことです。

実際にやるとなると「事前に言語モデルを構築しておけるのか」などなど問題が山積していると思うのですが、きっとよい機会になると信じています。

WITの今後の予定は、12月のHCGシンポジウム、そして1月の「50回・10周年記念研究会」です。今後も私個人として可能な限りツイッター中継などに取り組んでいくつもりです。よろしくお願いします。

カテゴリー
wit

第50回福祉情報工学研究会2日目

  • 09:04  #spwit 研究会2日目。午前に2つセッション。お昼に終了する予定。 http://bit.ly/hSIoW
  • 09:06  #spwit 途中で私の発表(10)があるので中継とまります。お許しください
  • 09:09  #spwit ゆうべの懇親会でこんな話がでました「来年の10月にPRMU/SP/WITの共催研究会を幕張CEATEC内で開催する際に、発表件数が多くなりそうなので、音声認識による情報保障を試してはどうか」
  • 09:14  #spwit (8) 國越さん「手の動きを入力としたリアルタイム音声生成系における鼻音の合成とピッチ制御に関する検討」
  • 09:16  #spwit (8) 國越さん「構音障害者支援技術。手話、コミュニケーションボード、VOCAなどがある。手話は相手も知っていないといけない。他の手法は感情を表現しにくい。テキスト音声合成に頼らない手法はないか?」
  • 09:18  #spwit (8) 國越さん「藪さんの先行研究。ペンタブレットで第1フォルマントと第2フォルマントを制御。その他10年前にグローブトークという提案」
  • 09:18  #spwit (8) 國越さん「提案。身体運動から音声に特徴量空間を写像。音声合成技術を使う。手の動きをデータグローブでキャプチャする」
  • 09:21  #spwit (8) 國越さん「ジェスチャ空間18次元と音響空間18次元の結合ベクトル。GMMで写像。話者変換で使われる技術。ただし、学習データのアラインメントを取るのは音声より難しい」
  • 09:23  #spwit (8) 國越さん「ジェスチャーと音の対応付け。指文字などを使わず新たに設計する。ジェスチャー群の配置と母音群の配置が等価になるように。指を曲げるか伸ばすか32通り。28種類を選んでジェスチャー位置の主成分分析」
  • 09:25  #spwit (8) 國越さん「群の分離されやすさ、指の形の作りやすさ。5つの形を決める。ジェスチャーとケプストラムを対応付け。結合ベクトル作成。GMM構築。STRAIGHTベースのケプストラム」
  • 09:27  #spwit (8) 國越さん:ビデオ「ロボットボイス的だが、元の声の分析合成音と似ている。合唱経験者なので難しい発声をさせやすかった。5母音の合成を実現。ピッチと子音が次の課題」
  • 09:29  #spwit (8) 國越さん「他に制御できるパラメータは?腕の方向を使う。地磁気・加速度などのセンサモジュールを使用。Rollを音声のピッチに割り当てる。「あおい」と喋るデモ」
  • 09:34  #spwit (8) 國越さん「子音の合成。波形接続と空間写像。前者は子音部と母音部の窓かけと混合部の長さを予備的に検討」「な」を合成した音声を聞かせる
  • 09:37  #spwit (8) 國越さん「nを考慮したジェスチャデザイン。アラインメント:目で見て子音部、遷移部分、母音部に分割して対応付け」「なにぬねの」の合成のデモビデオ
  • 09:39  #spwit (8) 國越さん「聴取実験による評価。分析再合成と比べると低いが、nとmの置換を許容すると良好な結果。フォルマント遷移部の音響特性に課題?」
  • 09:40  #spwit (8) 國越さん「ケプストラム歪みの評価。遷移部分が特に大きい」「まとめ:ピッチ制御の導入。鼻音合成の実験的検討」
  • 09:42  #spwit (8) 國越さん:デモ。手の動きで母音と鼻子音の再生。
  • 09:44  #spwit (8) 國越さん質疑「渡りの部分がたりないのでナがマになる?」「遷移部分は文字ごとに変える必要がある。いまの手法だと次にくる音素を予測できない」
  • 09:45  #spwit (8) 國越さん質疑「どれだけ自然な割り当てができるか=誰が使うか」「構音に障害があっても手には障害がない人が対象」
  • 09:47  #spwit (9) 中村さん「外部音源を用いた発声支援システムにおける統計的声質変換の評価」
  • 09:49  #spwit (9) 中村さん「声帯がない人のための人工喉頭(使って喋ってみせる)生成される音声が不自然。どうやって自然にするか」
  • 09:52  #spwit (9) 中村さん「概要。呼気センサーを使う。F0情報が得られる。統括的評価を」「従来法:F0を変化できない。Type-B:電気的に収録された音声を声質変換。電話なら変換音声だけを伝送できる」
  • 09:58  #spwit (9) 中村さん「Type-A:呼気センサー使用。気管孔からの呼気。強くふくと高い音になる」「Type-C:振動子を小さくして微弱音源を出す。NAMマイクで収録する」
  • 10:01  #spwit (9) 中村さん「B,A,Cの利点を比較」「最尤基準に基づく声質変換。入力と出力の話者を設定。入出力を結合した特徴量のGMM。条件付き確率密度最大化。言語情報に依存しない」
  • 10:04  #spwit (9) 中村さん「モノトーン電気音声が入力のときもF0をスペクトルから推定。非モノトーン電気音声のときはF0推定にスペクトルまたは入力F0を使う」
  • 10:07  #spwit (9) 中村さん「客観評価。メルケプストラム歪み。すべての変換で歪みを改善。F0評価:相関係数、有声無声判定。呼気センサーによる相関係数の上昇。入力F0の使用は無効(習熟による改善?)」
  • 10:10  #spwit (9) 中村さん「微弱音源からの変換結果がよくない。パワーが低すぎる」「主観評価。自然性、明瞭性、好感度。微弱音声の場合もやらないよりはよい」
  • 10:12  #spwit (9) 中村さんデモ音声再生。
  • 10:14  #spwit (9) 中村さん質疑「ささやきが特に自然に聞こえる。日本語に固有?中国語でささやきは困難?トーンランゲージ対策?」「ウィスパーでもピッチ成分が得られる可能性がある。知識で補完?」「スペクトルからF0が相関0.6で得られる。どう評価?」
  • 10:15  #spwit 次は (10) 西本「音声CAPTCHAにおける削除法と混合法の比較」
  • 10:16  #spwit (9) 中村さん質疑「F0推定は限界に来ている?品質を上げる可能性?」「案はあるけど。。セグメント特徴をPCA以外の方法でなにか」
  • 10:17  #spwit (9) 中村さん質疑「今回の被験者は呼気センサー訓練1ヶ月」
  • 10:17  #spwit (9) 中村さん質疑「MOSでささやきの評価が4なのは不自然?」
  • 10:20  #spwit (9) 中村さん質疑「人の声として自然か、ささやきも評価」「実時間性?一発話ごとに処理。ディレイは対策していない。将来の課題」「F0も言語情報なしでスペクトルと対応させる」
  • 10:58  #spwit (10) 西本発表終了。最初にツイッターのユーザ登録の reCAPTCHA をお見せしました(笑)
  • 11:02  #spwit (11) 大墳さん「体表点字による盲ろう者と健常者の会話システム」
  • 11:03  #spwit このセッションは西本が司会しながらつぶやきます
  • 11:06  #spwit (11) 大墳さん「最近は2個のモータで体表点字を実現。背中や肩など任意の箇所を使える。文字だけでなく左右などの情報も。ウェアラブル。受動的な情報取得」
  • 11:08  #spwit (11) 大墳さん「点字ひとマスを上中下の段に分ける。段に点がない場合は左を短く振動」「に:左・左・左」「な:左ブー、左トン、左ブー」「う:左右ブー、左トン、左トン」
  • 11:09  #spwit (11) 大墳さん「テレサポート。ジュースなのかコーラなのかカメラでサポーターに見せる、返事を体表点字で受け取る」
  • 11:10  #spwit (11) 大墳さん「自律歩行支援システム。RFIDを白杖で読み取る。音声の代わりに体表点字で情報提示」
  • 11:12  #spwit (11) 大墳さん「ヘレンケラーホン。携帯電話のボタン6個で入力。体表点字で会話」
  • 11:15  #spwit (11) 大墳さん「会話相手が健常者のとき、相手が近くにいるかどうかわからない。解決:赤外線で相手の存在を呈示。健常者はカナによる読み書き」
  • 11:17  #spwit (11) 大墳さん「盲ろう者の機器はベストに埋め込み。健常者は4x4ボタンと液晶画面の端末。会話までのタイミングチャート」
  • 11:21  #spwit (11) 大墳さん「盲ろう者が相手を見つけると会話モードに移行」「IrDAは通常10センチ。今回はリモコン用赤外線。8m届く。赤外線をPICでPWM変調。実験:光量と到達距離」
  • 11:22  #spwit (11) 大墳(おおつか)さんの発表中です。プログラム http://bit.ly/hSIoW
  • 11:24  #spwit (11) 大墳さん「今年8月の盲ろう者大会で意見を聞く。約30人(介助者含む)点字を知っているのは半数。ろうベースの触手話使用者も。好評をえた」
  • 11:35  #spwit (11) 大墳さん質疑。マイクを持っていたので中継できず。後ほどフォローします。
  • 11:36  #spwit (12) 伊藤さん「漢字の要素読み上げ及び拡大表示Webアプリケーションの開発」
  • 11:40  @mushakei 次の講演が始まってしまいました。後で質問してみますね!  [in reply to mushakei]
  • 11:41  #spwit (12) 伊藤さん「漢字は日本語である」「漢点字の提案:8点。六点漢字:6点。昭和47年長谷川さん」「視覚障害者の漢字学習の現状」
  • 11:44  #spwit (12) 伊藤さん「漢字の詳細読みの説明」「従来法の課題。実際に使えるか。扱う文字数に限りがある。形や構成の情報を伝えられるか」
  • 11:45  #spwit (12) 伊藤さん「視覚障害者から漢字の形を知りたいという要望を受けた。音声による漢字の構成情報の提供が可能なシステムを開発。点字プリンタは高価」
  • 11:47  #spwit (12) 伊藤さん「動作の流れ。漢字一字を入力。説明文データベースと漢字画像データベースを検索。JavaScriptとHTMLとPerlとSQliteで実装」
  • 11:49  #spwit (12) 伊藤さん「ダイアログボックスを出す。画面の一部書き換えなどの状況を理解させるため。出力画面の例」
  • 11:52  #spwit (12) 伊藤さんデモ。スクリーンリーダ(PC-Talker)でウェブブラウザを読み上げ。「文字入力」が空欄だとエラーのダイアログ。文字数が2文字だとやはりエラー。
  • 11:53  #spwit (12) 伊藤さんデモ。「男」を入力。「上に田んぼの田、下に力持ちの力」と説明。
  • 11:56  #spwit (12) 伊藤さん「課題:要素分解の程度。階層的に説明するべき? 効率よいデータの増やし方? 画像表示のサイズ変更など。視覚障害者による試用を予定」
  • 11:57  #spwit (12) 伊藤さん「課題:熟語のそれぞれの漢字を説明してくれるとよい?」
  • 12:07  #spwit (12) 伊藤さん質疑。後でフォローします。それから (11) で @mushakei さんからツッコミいただいた件。あまり進んでないようですが長谷川先生のサイトがあるはず、とのこと。。
  • 12:08  #spwit (13) 小宮さん「視覚障害者のための意味情報を用いた仮名漢字変換における説明語選択手法の検討」
  • 12:10  #spwit (13) 小宮さん「スクリーンリーダによる文書作成。仮名漢字変換は欠かせない」デモ。変換キーを押して詳細読みで候補が読み上げられる。
  • 12:12  #spwit (13) 小宮さん「例えばコウエンという語に同音異義語がたくさんある。正しく速く仮名漢字変換をしたい。提案:詳細読みではなく意味情報を説明につかう」
  • 12:13  #spwit (13) 小宮さん「例えば「講演:演説、話す、スピーチ」。これまでの実験の結果。正解率と平均変換時間で有効性確認。連想しやすい説明語をいかに選ぶか」
  • 12:15  #spwit (13) 小宮さん「説明語を自動選択したい。単語親密度に着目。NTTデータベースシリーズ。有効性を実験で検討」
  • 12:17  #spwit (13) 小宮さん「説明語の単語親密度の分布。4~7の高親密度が使われている。でも逆は成り立つのか?連想しやすさの評定実験」
  • 12:18  #spwit (13) 小宮さん「問題例:「演劇」から「ドラマ、プレー、劇、芝居」などが「意味的に近くない、やや近い、、」などを評定」
  • 12:20  #spwit (13) 小宮さん「単語親密度が低い:意味を知らない比率が上がる。変化の大きい親密度3~4に着目。知らない率10%の閾値が親密度3.6」
  • 12:22  #spwit (13) 小宮さん「「午後」と「後」は意味的に近くないと多数が回答。デジタル類義語辞典の定義が不自然?」
  • 12:24  #spwit (13) 小宮さん「「後」には「観点:場所」と「観点:時刻」の両方がある。観点付き単語は除外すべき」「「早熟」と「ひねる」も近くないと回答。「ひねた子供」と「ねじる」の多義性」
  • 12:25  #spwit (13) 小宮さん「「ひねる」の親密度5.7は「ねじる」の意味での得点だと思われる」
  • 12:27  #spwit (13) 小宮さん「課題:音声による実験など、詳細読みとの併用」
  • 12:45  #spwit 終了。とりあえず会場かたづけます。ボイスレコーダで録音したので後で聞き返してフォローします。
  • 20:23  新幹線にて今日の研究会の録音を聞き直した。いまさらツイッターって気がしないので中継が抜けたところは後でブログに書きます。誰か私の発表と司会の間だけ中継を手伝ってくれる人を緩募。。
  • 20:27  最近買い換えたボイスレコーダー、三洋ICR-PS503RM。三洋の操作系に慣れている私には使いやすい。再生ボタン連打でちょっと巻き戻しができることにいま気付いた。

Powered by twtr2src

以下、生中継できなかったところの補足:

(10) 西本の発表に対する質疑。発表概要は別途このブログに書く予定。

  • ターゲットと妨害音声のSNRの定義の確認
  • 混合法で数字の桁ごとに話者が変わるとどうなる?やっていないが、難しい課題になりそう
  • 同じ話者の妨害音声を破る側が用意できたら話者認識によって何かできそう?ターゲット音声の話者はもともと不特定話者のつもり。
  • 妨害とターゲットの話者が同じだったら?コーパスがないのでやっていないが、人間にも機械にもおそらく不利
  • 被験者が女性の場合は男性音声の聞き分けが苦手、逆もあり、という現象の可能性?
  • ユーザ登録で入力された名前を使って妨害音声を作るCAPTCHAの可能性?機械が妨害音声をコントロールできてしまうと破る側に悪用されるかも
  • 破る側と守る側に分かれてコンペをすればよいと思う

(11) 大墳さん質疑:

  • カメラによるテレサポートを自動化できるか?画像を写すためにカメラの向きを変えてもらう必要がある。やりとりが必要。
  • MITのシックスセンスというシステムがある。カメラ画像を認識してネット情報を検索する拡張現実。同じようなことができるかも。
  • 健常者の読み書きは?仮名文字。赤外線で通信されるのは仮名の文字コード。
  • センサーを2つずつ3回で呈示するのはなぜ?指と違って体では同時に多くの振動を認識できない。3点x2回の方が「母音」「子音」に対応するのでは?
  • 次の文字とタイミングが重ならないのか?文字ごとに空き時間を作っている。
  • 段や文字の呈示スピード?熟練度に応じて変更。
  • 「打ちはじめ」を知らせては?これから送る、という合図の信号は使っている。ずっと待っているのは疲れる。

(12) 伊藤さん質疑:

  • 男→田・力のような説明辞書をどう学習?田→口・十のような階層的データを作りたい。触覚とコラボしたい。
  • わかっているが確認したい文字、という使い方?
  • 詳細読みで区別がつかない場合の呈示に役立つのでは?
  • IMEで詳細読みを理解して入力ができる人が対象ユーザ?第2水準の文字など、形だけ知りたいというニーズがある
  • 文字を拡大して表示するのは?弱視の人を対象。弱視の人も音声を好むかも?

(13) 小宮さん質疑:

  • 詳細読みと意味情報のそれぞれの利点と欠点?わからなくなったときにリカバーしにくいことはないか?
  • 詳細:「週刊」「週間」一文字目が同じ。一文字目がわからないと区別ができない。詳細読みが苦手なケース。
  • 意味:カタカナ語や聞き慣れない語が出現するのが欠点。固有名詞に対応しにくい。
  • 詳細:他の語では使わない難しい漢字が存在する
  • 意味:前の発表の実験の手順?二字の熟語を呈示
  • MS-IMEの同音異義語の意味ヒントの音声化と似た効果?
  • 日本語の語彙特性データベースは「語を知っているか」の尺度。意味の一義性とのミスマッチで苦労している?
  • 前提は「連想しやすい=類義語」。主観的な選択ではなく基準を作りたい
  • どのデータから何がわかり、どんなフローで何をフィルタリングするか、整理していくとよい?