So-net無料ブログ作成
検索選択
テクノロジー ブログトップ
前の15件 | -

Robotics Studio [テクノロジー]

今月20日、MicrosoftがWindows用ロボット開発プラットフォームRobotics StudioのCTP(Community Technology Preview)版を発表しました。

Microsoft、ロボット開発プラットフォーム「Robotics Studio」CTP版を公開 (Robot Watch)
「ロボットの互換性」目指し、MSが開発環境提供 (ITmedia)
MSからロボット技術を身近にするツール「Robotics Studio」が登場 (MYCOMジャーナル)
Microsoft Robotics Studio Provides Common Ground for Robotics Innovation (ニュースリリース(英文))

Robotics StudioはWindows向けのロボット用ソフトウェア開発ツールです。これまで、ロボット用の専用開発ツールはなく、開発者ごとに異なる手法で書いていましたが、そこに共通のプラットフォームを提供してくれるビジュアルプログラミングツールです。

ニュースリリースによれば、Windowsベース、Webベースのロボットインターフェース、3Dシミュレーションができるようです。実際に試したわけではありませんが、すでにシミュレーション用に物理シミュレーションボードのPhysXがサポートされていたりと、今後、各種インターフェースボードやセンサ、ロボットなど各メーカーのサポートが得られれば、魅力的なツールになる可能性を秘めていると感じました。


nice!(0)  コメント(2)  トラックバック(0) 
共通テーマ:ニュース

パンダスーツ [テクノロジー]

アニマトロニクスというのをご存じでしょうか。アニマルとエレクトロニクスから作られた造語で動物の形や動きを再現するロボットです。

アニマトロニクス (goo辞書)

そんなアニマトロニクスの技術を使ったアニマトロニクススーツ「ハイクオリティ・スーツ」の第一弾「パンダ」がITmediaで紹介されていました。

自宅でパンダになりきれる「パンダスーツ」 (ITmedia)
アニマトロニクス技術を集約させた、新型エンターテインメント着ぐるみ「パンダ」、レンタル事業をビルドアップが開始。 (プレスリリース)

一言で言えば、「高性能な着ぐるみ」なわけですが、そんなスーツを開発したのは株式会社ビルドアップ。パンダスーツは演技者が着るインナースーツに最高級の毛皮を装着することで外観を再現。目や耳、朽名などにサーボモータが内蔵され、表情や細かな動きを遠隔操縦で表現できます。また、頭部に小型CCDが内蔵されており、演技者は装着したグラストロンを通して外を見るようになっています。

写真を見ると、ちょっと鼻が短く、頭に丸みを帯びているようなイメージはありますが、ぱっと見の外観は似ています。また、プレスリリースで公開されている動画では動きに人間っぽさが残っていますが、演技者がパンダの動きを覚えたら、本物そっくりになるような気がしました。


nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:ニュース

能を演じるヒューマノイドロボット [テクノロジー]

今月3日の毎日新聞の記事に、ヒューマノイドロボットが人間と共演する創作能を梅谷陽二氏が書き下ろしたというニュースが掲載されていました。

創作能:人型ロボットで 技術のお家芸、文化に!?--東工大名誉教授が書き下ろし (毎日新聞)

梅谷氏は人間とロボットが共演する能を「からくり能」と命名。今回、書き下ろされたのは「友月」という演目で、現在、出演する国産ヒューマノイドロボットを募集中とのことです。

ところで、記事では、
「ヒューマノイドは装束をまとい、出演者の動きに合わせ、自律制御で「友月」を演じる。能は他の演劇よりも動きの規則性が高いため、動作を覚え込ませやすく、既に開発されたもので対応できるという。」
とあり、舞台でロボットは自律的に動く必要があります。動作を覚え込ませやすいとありますが、ロボットとの共演はかなり難度が高いものと思われます。

確かに、単純にロボットの動きをパターンとしてプログラムして、その通りに動かすことは現在のロボット技術で不可能ではないと思います。しかし、人間は機械ではないので、毎回同じ動作をすることはできません。ですから、舞台の上で演じる役者さん達は、互いの動きを感じ取り、お互いにタイミングや間、動きを合わせながら演じていると思われます。ここは現在のロボット技術では実現されていない部分です。したがって、プロの役者さんなら一見して分からないように演じられるのかもしれませんが、現時点ではロボットのパターンに役者さんが一方的に合わせるような形になるかもしれません。逆に言えば、そこをどこまで自然に見せられるかが、この企画の鍵になると感じました。

ただ、試みとしてはとても興味深い試みなので、是非、ロボット側もパターン再生に終わらず、役者さんの間や動きを理解するアプローチに期待したいです。


nice!(0)  コメント(3)  トラックバック(1) 
共通テーマ:ニュース

援竜 雪害対策性能テスト [テクノロジー]

昨日、長岡技術科学大学で、テムザックの大型レスキューロボットT-52援竜を使った大雪による雪害対策のための実験が行われたそうです。

テムザック“援竜”、新潟県で雪害対策性能テスト (PC Watch)

援竜は全高3.45m、全幅3.4m、全長3.5m、重量約5tの大型ロボットで、災害現場でレスキュー活動を目的に開発されました。大きな腕を持ち、その力は乗用車を持ち上げるほどです。また、遠隔操作に対応しています。

実験では、雪庇の除去と雪崩に埋もれた車両の救出をしたそうです。PC Watchでは雪庇をなぎ払う動画が公開されていますが、大きな腕で雪の塊を崩していきます。相変わらず、援竜の動きには迫力があります。

ただ、自由度も多いし複雑な動きもできるし、ロボットが雪の中でも活躍できる可能性があるのは分かりますが、これだけだとショベルカーとの違いが分かりづらいと思いました。実際には、今回の実験も試行錯誤が多かったようなので、今後の発展に期待です。

ところで、雪害対策としては愛・地球博で除雪ロボットのゆき太郎が出展されていましたが、今年の大雪では活躍できたのでしょうか。


追伸)
最近、夕方から深夜にかけて、So-net blogがとても重くなっています。原因はサーバー側がアクセス負荷に耐えられなくなっているそうです。しばらくの間、ご迷惑をおかけいたしますが、ご容赦下さい。


nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:ニュース

車いすを押すHRP-2 [テクノロジー]

24日、大阪大学の新井健生教授の研究グループがHRP-2による車いすを押しながらの歩行を発表しました。

介助ロボ:車椅子押しながら2足歩行、阪大が開発 (毎日新聞)
2足歩行ロボット 人間乗せて歩く実演 阪大研究グループ (Yahoo!)
ロボットニュース【2足歩行ロボット 人間乗せて歩く実演 阪大研究グループ】 (Robot.Mとの優雅な平日)

物を押しながらの歩行技術としては、昨年末にホンダが発表した新型ASIMOワゴンを押していましたが、車いすとなると重量が違うので、ロボットにかかる負担は大きくなります。

大雑把かつ単純に計算しますが、仮に人+車いすの重量が80kgとしても、押して動かす場合、タイヤの転がり摩擦は小さいので、重量よりも小さな力で押すことができます。一方、止まるときは、0.5m/sで押しながら歩いていたとして、80kgの重量物を1秒で止めようと思ったら、40N(約4kgf)の力が必要となります。つまり、それだけの外力が加わっても転ばない制御が必要になります。加えて、搭乗者の乗り心地を考えたら、滑らかな加減速が求められるわけですから、単純に歩くのとは負担も制御も難しいだろうことは、容易に想像できます。

将来的には、路面状況や周辺環境も考慮しながら乗り心地のよい押し動作ができるよう期待しています。

ところで、ロボットの写真を見ていると、ロボットが逆手で車いすを押していますが、何か理由があるのでしょうか。自分の場合、順手で押すのでちょっと気になりました。


nice!(0)  コメント(2)  トラックバック(0) 
共通テーマ:ニュース

生活活動支援ヒューマノイドロボットプラットホーム [テクノロジー]

本日、産業技術総合研究所が、生活環境内で人間の生活活動を支援するために知覚機能と行動機能を拡張したヒューマノイドロボットプラットホームを開発しました。

生活活動支援ヒューマノイドロボットプラットホームを開発 (プレスリリース)

プラットフォームに使用されたのはヒューマノイドロボットHRP-2で、レーザー距離センサや4台の高精度カラーカメラによって、室内のマッピングや自己位置同定、障害物の発見が可能となり、マイクアレイによって音声と雑音の分離・除去が可能になったそうです。さらに、これらの機能を使用し、自律動作を対話的に教示できるようになったそうです。

プレスリリースでは新機能の例として、椅子を片付けたり、冷蔵庫から飲み物を取り出したりしています。


1月24日 追記
プレスリリースの写真を見ると、腕に「PROMET 10」と書いてあるので、昨年の愛・地球博のプロトタイプロボット展で探査型ヒューマノイドロボットHRP-2 No.10がベースになっているようです。

人間型ロボット:自律動作で生活支援 産技総研が開発 (毎日新聞)


nice!(0)  コメント(0)  トラックバック(1) 
共通テーマ:ニュース

バッテリーの急速充電 [テクノロジー]

12日の夜、テレビワールドビジネスサテライトを見ていたら、「進化するモバイル機器の死角」という特集でバッテリーに関する問題を取り上げていました。

進化するモバイル機器の死角 (ワールドビジネスサテライト)

内容を簡単にまとめると、携帯電話ノートパソコンなどモバイル機器にはバッテリが必要だが、その技術の現状と進化について、バッテリーの再生、急速充電などを例に紹介するというものでした。

その中で気になったのが急速充電技術。充電式乾電池にも急速充電タイプのものがありますが、それでも1時間から2時間ぐらいかかります。携帯電話でもだいたい同じ程度ではないでしょうか。それに対して紹介されていた技術は充電時間がたったの1分。それでいて、通常タイプの20倍以上の充電能力を持ってるとのことでした。放送ではバッテリー駆動のバギーカーが1分の充電で山手線を1周できると紹介していました。バッテリーの充電は遅いというイメージを持っていた私にとってはかなりの驚きの技術でした。

ロボットも電力を必要としますが、移動式の場合バッテリに頼ることになります。これまでのバッテリ技術の進化というと重量に対するバッテリー容量を増やすことで、駆動時間の延長を進めていた気がします。もちろん、それも重要な技術がですが、急速充電が一般的になれば、バッテリー切れの際にバッテリーを交換するよりも急速充電の方が早くなるのではないでしょうか。そうなれば、重い交換用バッテリーを携帯する必要がなくなるのではと感じました。

人だって、疲れたときはお茶を飲んだりして一服します。ロボットだって、30分や1時間のおきに1分のほど充電休憩をするというのは、決しておかしな風景ではないと思います。いかがでしょうか。


nice!(0)  コメント(2)  トラックバック(0) 
共通テーマ:ニュース

心語り [テクノロジー]

本日、NHKニュース10でALS(Amyotrophic Lateral Sclerosis:筋萎縮性側索硬化症)という脳機能が正常でも、全身の筋肉を全く動かせなくなってしまう病気の患者が意思伝達のため、脳血流によってYes / Noの判定をする装置が開発されたことが紹介されていました。放送では製品名については伏せられていましたが、調べてみたところ、日立製作所の「心語り」という装置のことのようです。

身体を全く動かすことのできないALS患者向け Yes/No判定装置「心語り」を製品化 (日立製作所)

Yes/No判定装置「心語り」 (日立製作所)

エクセル、日本ALS協会、日立が、ALS患者向けYes/No判定装置“心語り”を開発――脳血流量で判定 (ASCII24)

心語りは脳に流れる血流量の変化を利用しています。近赤外光を頭部に当てると、脳の表面付近で散乱され、頭蓋骨を通って戻ってきます。このとき、血流量と反射光の光量には逆の関係があるそうです。また、脳活動が高まると血流が増え、脳活動が低下すると血流量は低下します。Yes / Noの判定は、Yesのときは頭の中で歌を歌い、Noのときは何もしないようにすると、Yesのときに前頭葉に血流が集まり、血流量が増えるのです。この血流量の変化における振幅とゆらぎに着目することでYes / Noの判定が可能となったとのこです。

判定にかかる時間は1回36秒。正判定率は80%程度とのこと。

以前にCyberHand Projectを紹介しましたが、心語りも脳インターフェースの一種と言えるでしょう。今はYes / Noの判定によって意思を伝えることを目的としていますが、意思の伝達が可能ということは、将来的に判定可能な種類が増えたりすれば、ロボットなどへの入力インターフェースにも応用が可能なのではないでしょうか。脳インターフェース技術は今後も注目技術だと思います。


nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:ニュース

カメレオンアイ [テクノロジー]

昨日、改良型QRIOについて書きましたが、その頭部に埋め込まれた小型広角カメラがカメレオンアイです。

周囲180度の映像を撮影可能な薄型・軽量カメラモジュールを発売 (プレスリリース)

このカメラの特徴は1円玉(直径20mm)よりも1、2mm直径が小さい魚眼レンズを開発したことで、これにより幅39mm、奥行き28mm、重さ63gの筐体で180度の画角を実現したことです。魚眼レンズ自体はすでにありますが、ここまで小型のレンズは素晴らしい技術だと思います。

さらに、魚眼レンズにより大きく歪められた撮像イメージを、ハードウェア処理によって通常のイメージに展開できます。これにより、カメラを動かさずとも、ソフトウェアでパン・チルト機能を再現しています。自分の用途に合った映像を選択できるので使い勝手がよさそうです。

出力形式はアナログ出力(NTSCビデオ信号)だけでなく、デジタル(USB)出力もあるので、パソコンとの親和性も高そうです。2006年3月からサンプル出荷開始で、サンプル価格は1台105,000円。ソニーの方の話だと、量産されればもう少し安くなるとのことでした。

このカメレオンアイ、小型であることから、QRIOのようにロボットのカメラとしても使えるでしょうし、画角の広さを生かしてドアミラーの代わりや監視カメラなど、ロボット以外の分野にも応用ができるのではないでしょうか。


nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:ニュース

曲げられる接触センサ [テクノロジー]

ロボットには、カメラやマイクなどいろいろなセンサが組み込まれることが多いのですが、人とのインタラクション型ロボットには接触センサ(皮膚センサ)が大切になります。

その接触センサとして、十川ゴム大阪大学産業科学研究所の菅沼克昭教授、大阪大学大学院工学研究科の石黒浩教授ATRイーガーホロン東京センサ中央電機計器製作所などによる開発グループが、柔軟性の高い接触センサを開発したと本日付の日刊工業新聞で掲載されていました。

このセンサ、先の2005国際ロボット展でも展示されており、私も実物で試してきたのですが、シリコンゴムのシートにピエゾセンサが挟み込まれ、センサ・配線ごと引っ張ったり、曲げたりできるのです。記事のよると、元の2倍に引っ張っても導電性を確保できるそうで、2006年中頃のサンプル出荷を目指しているそうです。

従来の導線で配線すると、ロボットの関節など曲げたときと伸ばしたときで配線長が変わる部分では、最大長の配線を確保する必要があります。しかし、常に最大長で動かすわけではないので、導線がたるんだりして、時として見た目にも影響します。しかし、このセンサなら引っ張り、曲げ、ねじりなど自在に変形させられるので、配線部をスッキリさせられるというわけです。

柔らかい皮膚センサも素晴らしい技術だと思うのですが、私が気になるのは柔軟な配線技術です。配線を自由に曲げたり伸ばしたりできるということは、このセンサに限らず、幅広い配線技術に使えるはずです。配線が細いので電源ラインに使うのは難しそうですが、センサ系なら使えそうです。ウェアラブル系のセンサへの応用などはどうでしょうか。


nice!(1)  コメント(0)  トラックバック(0) 
共通テーマ:ニュース

神経インターフェース [テクノロジー]

ITmediaに神経インターフェースに関する記事が掲載されました。

「感じる義手」は“ルークの義手”にどこまで近づけるか (ITmedia)

神経インターフェースとは、Brain Machine Interface(BMI)とも呼ばれ、神経を直接電気回路に接続することで、神経を流れる信号で機械を制御したり、逆に神経に信号を流し感覚を再現する技術で、ここ最近、アメリカヨーロッパなど世界的に研究が進められている研究領域です。

記事では、東京大学情報理工学系研究科の満渕邦彦教授、鈴木隆文氏の研究が紹介されています。現在の義手には前腕や上腕の筋電信号で制御できるものがありますが、ここでは手の神経と義手をつなぐことで、神経信号で義手を制御したり、触覚を再現しようとしています。また、ラットの脳に柔軟型剣山電極を接続し、ラット自身が乗るロボットカーを操縦しています。

まさにSF世界のサイボーグのような技術ですね。


nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:ニュース

聞きたい音は何? [テクノロジー]

神戸製鋼所奈良先端科学技術大学院大学が、騒音の混じった音から、聞きたい音だけをきれいに聞き分けられる小型装置を共同開発したそうです。

<神戸製鋼所>聞きたい音だけにできる装置開発 (Yahoo)

雑音消します! (WBS・ トレンドタマゴ)

人間の耳というのは非常によくできていて、人の声、雑踏の音、車の音、電車の音など様々な音が同時に聞こえる街中でも、任意の音を聞き分けられます。これは、人間の耳が前を向いていること、左右の音から音の方向を聞き分けていること、意識の振り分けなどを同時にこなしているからと思われます。

では、コンピュータで同じ事ができるかというと、途端に難しくなります。マイク(特に無指向性マイク)で街中の音を録音してみると分かりますが、すべての音が混ざって録音されてしまい、簡単に分離できないのです。

さて、発表された技術ですが、そのような様々な音から目的の音だけを、少ない計算量で分離・抽出できるそうです。WBSで取り上げられていたのも見ましたが、大きさは手のひらサイズで持ち運びも簡単にでき、来年の実用化を目指しているそうです。しかも、タイムラグが小さいことも特徴とのことです。神戸製鋼の開発者は「聖徳太子のように10人は無理だが、2人まで聞き分け可能」と話していました。

WBSで聞いた感じですと、聞きたい音を抽出と言うよりは、人の声と騒音を効果的に分離という感じでした。音声認識をするには、ノイズが少ない音声を入力した方が認識率が高くなるで、こういった音声分離技術の実用化は、ロボットやカーナビに限らず、音声入力システム全般に役立ちそうです。


nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:ニュース

i-Swing [テクノロジー]

気がつくと、第39回東京モーターショー(2005)が始まっていました。そして、トヨタから先の愛・地球博で公開されていたi-Unitの流れ汲む新型コンセプトカーi-Swingが発表、公開されました。

TOYOTA、東京モーターショーで燃料電池ハイブリッド車、パーソナルモビリティの新コンセプトを提示
(プレスリリース)

トヨタ、コンセプトカー「i-Swing」をモーターショーに出展 (PC Watch)

i-Swingの特徴として目を惹くのが3輪であること。そして、3輪走行と2輪走行を切り替えられることです。ボディ自体もよりコンパクトにすっきりした感じになっています。

3輪走行時は軽快に走り回っています。回るときはボディを左右に傾けているので、スクーターとかの感覚に近そうに見えます。3輪なので転ぶことはなさそうですが、体の一部として乗りこなすには、ちょっと練習が必要そうです。操縦は手元のスティック操作だけでなく、ペダル操作+体重移動でもできるようです。体重移動で運転できるのは、運転感覚を掴みやすそうでいいですね。

一方、2輪走行ですが、前輪が持ち上がり倒立振子になります。セグウェイと同じ仕組みです。2輪時は速度がかなり抑えられているようで、ゆっくりと動いたり、その場で旋回するような狭い場所を移動するときに使うようです。

他にも、ドライブバイワイヤになっていたり、車車間通信できたり、1台が子機となって親機の横を併走したり、ユーザー情報を蓄積して習慣・嗜好を学習して成長したりと、面白い機能が満載です。自動車も知能化、自律制御化が進んでいるのだと感じます。


nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:ニュース

カプセル内視鏡 [テクノロジー]

先週のニュースになりますが、オリンパスがカプセル内視鏡をヨーロッパで発売するとのニュースがありました。

高画質のカプセル内視鏡を欧州で販売開始 (プレスリリース)

オリンパス、カプセル内視鏡を欧州で発売 (IT Media)

オリンパスというと一般にはカメラメーカのイメージが強いですが、医療用光学機器や顕微鏡を古くから手がける企業としても有名で、内視鏡では世界シェアの75%以上を占めるほどです。

従来の内視鏡はチューブの先端にカメラがあり、体の中を見るためには、チューブごと挿入する必要がありました。そのため、食道や胃の検査には口から、直腸や大腸の検査にはお尻から内視鏡を挿入できるのですが、消化管の80%を占め、成人では全長6mにもなる小腸を検査することは構造上困難でした。

今回発表されたのは小腸用の内視鏡で、直径11mm、長さ26mmのカプセル状になっていて、映像をリアルタイムに体外へ送信し、患者さんが身に付けているアンテナで受信します。その後、約8時間で体外に排出され、検査は終了です。

カプセル型の顕微鏡としては、RFシステム社のNORIKAやGive Imaging社のPillCam(旧M2A)が先行していますが、内視鏡の雄オリンパスが参入することで、さらなる普及が期待できるのではないでしょうか。

そして、今は腸の蠕動運動で進んでいますが、将来的には能動的に体内で運動が可能になって、ロボット内視鏡になるのでは、と勝手に想像しています。体外からの無線電力送信技術も確立しつつあるようですし。

ちなみに、日本ではカプセル内視鏡の認可がまだ下りていないそうです。

飲み込めるカプセル内視鏡、オリンパスが開発 (IT Media)


nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:ニュース

ロボットカー・ラリー [テクノロジー]

一昨年に続き、今年もアメリカ国防総省国防高等研究計画庁(DARPA)主催のロボットカー・ラリーが8日に開催されました。

このレース、戦場で目的地まで無人で走れる車を作ることが目的のレースで、ゴールを設定された無人の車(ロボットカー)に約240kmを走破させます。スタートしたら転倒しようが、道に迷おうが人間の助けを得たら失格です。ロボットカーは自身に搭載されたセンサを頼りに、適切な道や速度を決定し、ゴールを目指すのです。第1回の昨年は完走チーム0台で、最長走破距離が12kmと、このレースの困難さを物語っていました。そのため、今回の賞金は前回の2倍。10時間以内に1位でゴールしたチームには200万ドル(約2億2800万円)が贈られるそうです。

こんなロボットカー・ラリー、今年の第2回大会には195チームが応募。23チームが本戦に出場するそうですが、3~4kmの予選コースを4回走って完走は5台だったそうです。

自律走行車が競う『DARPAグランド・チャレンジ』第2回出場車が決定 (WIRED NEWS)

DARPA GRAND CHALLENGE 2005

ロボットカー・ラリー:8日に第2回大会、出場車が決定 (毎日新聞)

私の予想では、今年も完走者は1台もいないだろうと思っていました。しかし、その予想は大きく裏切られたようです。

ロボット運転の車、砂漠レースで初完走 米軍が賞金 (CNN)

なんと、23台中4台が完走したのです。トップでゴールしたのはスタンフォード大チーム。軍事利用が目的であり、コース設定は相当厳しく設定されていたはずです。にも関わらず、たった1年で走破距離を20倍以上引き上げたことは、とても驚きでした。スタンフォード大チーム、おめでとうございます。

さて、このレースで使われた技術、軍事利用を目的としていますが、自動車のオートパイロットや、自律型の事故防止機能、道路状況に応じたナビゲーション、よりスリリングで安全なアトラクションなどなど、ちょっと考えただけでも一般への応用がいくつも思いつきます。しばらくは軍事技術として研究されるでしょうが、早く民生技術に下りてきて欲しいです。


※10月11日追記

ロボットカー・ラリーに関する記事を見付けました。

無人ロボット自動車レース、スタンフォード大チームが200万ドル獲得 (MYCOM PC WEB)
ロボットカーレースとRoboNexus、ロボットが主役の1週間を振り返る (MYCOM PC WEB)
スタンフォード大チーム優勝、5台が完走――ロボットカーレース決勝 (ITmedia)
ロボットカー・ラリー、今年は5チームが完走 (WIRED NEWS)


nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:ニュース
前の15件 | - テクノロジー ブログトップ

この広告は前回の更新から一定期間経過したブログに表示されています。更新すると自動で解除されます。

×

この広告は1年以上新しい記事の更新がないブログに表示されております。