|
«Компьютеры будущего» смогут не только повиноваться голосу человека, но и слушаться его жестов и даже взглядов, вычисляя настроение хозяина. Технологии компьютерного зрения откроют доступ к машинам для людей с ограниченными возможностями, помогут диагноситровать состояние здоровья маленьких детей и станут «эмоциональными глазами» для страдающих аутизмом.
Современные «устройства ввода» - именно так называются компьютерная клавиатура, мышь, джойстик, - прочно вошли в нашу жизнь и даже стали для многих пользователей компьютеров вторыми «руками». Действительно, управление мышью тривиальное, возможность печатать «вслепую», то есть глядя на экран, а не на клавиатуру, доводит почти до автоматизма обращение к компьютеру.
Однако тактильный, осязательный метод передачи информации, в принципе, не свойственен Homo Sapiens: в докомпьютерную эру люди использовали для этого взгляд, голос, частично жесты.
Ученые полагают, что общение с «компьютерами будущего» станет возможным именно при помощи традиционных человеческих «средств связи».
Лиджун Инь, профессор Бингемтонского университета и директор Лаборатории компьютерной графики и обработки изображений, занимается обучением компьютеров человеческому языку.
Инь и его коллеги разработали метод передачи информации от компьютера к человеку посредством взглядов, жестов или речи.
Чтобы машина могла воспринимать информацию, была разработана специальная технология «компьютерного зрения» - простая веб-камера становилась для компьютера человеческим глазом, отчасти обладая способностью интерпретировать объекты и явления реального мира и «понимать» желания пользователя.
«Наши исследования в области компьютерной графики и компьютерного зрения нацелены на то, чтобы сделать использование компьютеров проще. В идеале, с компьютером можно взаимодействовать в формате "дружеской беседы". Такие машины смогут использовать и люди с ограниченными возможностями», - считает профессор Инь.
Разработка специального математического аппарата для анализа данных, получаемых веб-камерой, отчасти позволила компьютерам «видеть».
Один из аспирантов из лаборатории Иня сделал перед экспертами Военно-воздушных сил США презентацию с использованием Microsoft Power Point, управляя программой с помощью взгляда.
Из оборудования в его распоряжении были только ноутбук и веб-камера, и этого было достаточно, чтоб взглядом сообщить компьютеру, какой участок слайда в презентации нужно подчеркнуть или выделить.
Следующая стадия сверхточной обработки изображения с веб-камеры - научить компьютер оценивать настроение и психологического состояние хозяина. Для облегчения задачи исследователи разбили всю гамму эмоций на шесть базовых состояний:
злость, отвращение, страх, радость, грусть и удивление,
и начали экспериментировать с автоматическим распознаванием этих эмоций. Они изучают важность анализа состояния отдельных частей лица - глаз, рта, лба - для выражения эмоций, а также оценивают точность оценки, если лицо видно лишь частично, например, в профиль.
«Компьютеры понимают только нули и единицы, вся задача стоит в путях кодировки»,
- считает Инь.
Компьютерное распознавание эмоций может оказать существенную помощь людям, которые лишены способностей либо понять их, либо, наоборот, выразить свое собственное состояние. Например, люди, страдающие аутизмом, часто не могут правильно интерпретировать эмоции окружающих, поэтому испытывают трудности в общении. Компьютер смог бы «переводить» для них внешний мир. Маленькие дети, наоборот, еще не обладают достаточным речевым аппаратом, чтобы передать свои собственные эмоции. Так, взрослый человек может пойти к врачу, если испытывает боль, а также точно указать ее место и характер. Младенцы способны лишь плакать, испытывая дискомфорт. Дать более точные данные они не могут, меж тем, плач сам по себе не всегда означает боль. Анализ мимики с помощью компьютерной программы, возможно, поможет отличить, действительно, больного ребенка от просто капризничающего или уставшего.
Автор: Александра Борисова
| |