Несмотря на все технологические достижения, ничто из них не сравнится с тем, на что способна эволюция. Поэтому неудивительно, что человечество регулярно «ворует» у живой природы идеи для создания чего-то нового. Взять, к примеру, прыгающих пауков. Эти маленькие создания обладают впечатляющим чувством глубины. Несмотря на их крошечный мозг, оно позволяет им точно набрасываться на ничего не подозревающие цели, находящиеся на огромном расстоянии от них. Вдохновленные этими пауками, исследователи из Гарвардской Школы инженерных и прикладных наук Джона А. Полсона (SEAS) разработали компактный и эффективный датчик глубины.
Что такое датчик глубины?
Как правило, под этим термином подразумевается ToF-датчик (расшифровывается как Time of Flight) — это специальный сенсор, который излучает свет и регистрирует скорость его отражения от объекта. Зная время отражения, на основе скорости света можно вычислить точное расстояние до объекта. Многие современные датчики глубины, например в телефонах, используют встроенные источники света и несколько камер для измерения расстояния. Например, Face ID на iPhone использует тысячи лазерных точек для считывания контуров лица. Это работает для больших гаджетов с хорошей аккумуляторной батарей, но что насчет небольших устройств с ограниченной вычислительной мощностью и батареей, таких как смарт-часы?
Эволюция создала большое разнообразие оптических конфигураций и систем зрения, которые адаптированы к различным задачам, — говорит Чжуцзюнь Ши, кандидат физико-математических наук и один из ведущих авторов работы. Оптические нанотехнологии, наконец, позволяют нам создавать искусственные датчики глубины и другие системы, которые столь же разнообразны и эффективны, как и те, что создала природа.
Люди измеряют глубину с помощью своей системы зрения, то есть, когда мы смотрим на объект, каждый из наших двух глаз видит немного разное изображение. Попробуйте следующее: держите палец прямо перед лицом и попеременно открывайте и закрывайте глаза. Видите, как «двигается» палец? Наш мозг берет эти два изображения, исследует и, основываясь на том, как смещаются объекты, вычисляет расстояние до пальца.
Этот расчет, когда вы берете два изображения и выполняете сопоставление соответствующих частей, является довольно сложным. У людей имеется большой мозг для таких вычислений, а вот у пауков-нет.
Прыгающие пауки разработали более эффективную систему для измерения глубины. В каждом глазу паука есть несколько слоев сетчатки разной степени прозрачности, и все они воспринимают объект одновременно. Когда паук смотрит, скажем, на муху одним глазом, на одной сетчатке она будет более четкой, а на другой — более смазанной. Изменение фокуса и позволяет мозгу паука определить точное расстояние до жертвы. А вы знали, как устроена система зрения пауков? А мы, между прочим, регулярно пишем для вас что-то интересное на нашей страничке в Яндекс.Дзен. Так что подписывайтесь!
В «компьютерном зрении» этот тип вычисления расстояния известен как «глубина расфокусировки». Но до сих пор для воссоздания чего-то подобного требовались большие камеры с механическими внутренними компонентами, которые могут захватывать изображения с различной степенью фокусировки. И тут на помощь приходят металинзы.
Читайте также: Материал, созданный из табачных листьев, оказался таким же прочным, как дерево или пластик
Металинза — это линза, которая расщепляет свет и формирует два по-разному расфокусированных изображения на фотосенсоре. Затем алгоритм обрабатывает два этих изображения и выстраивает своеобразную «карту глубины», указывающую на расстояние до объекта.
Металинзы — крайне перспективная технология, которая сделает сенсоры намного эффективнее, быстрее, но при этом гораздо проще, чем существующие линзы. Новая технология откроет широкий спектр возможностей в науке и технике.
В частности, новая разработка отлично подойдет для совершенствования технологии фокусировки камер, улучшения качества снимков. В научной сфере мы получим более качественные телескопы, а также датчики для микроботов и других роботов, которые сделают их ориентацию в пространстве еще лучше.