Убер, их машина и ее False Alarm
Niikolay RudenkoУже полтора месяца все ждут отчета от Национальной службы безопасности транспорта США по поводу расследования того, почему и как автомобиль Убер сбил Элен Херцберг в Аризоне в марте этого года. Отчета пока нет. Но недавно вышла новость, которую перепечатали все СМИ со ссылкой на The information, что два анонимных источника связали аварию с тем, что софт Убера увидел переходящую с велосипедом женщину, но принял ее за пластиковый пакет (а израильское издание israinfo написало даже красноречивее: «Автопилот такси Uber принял женщину за мусор на дороге»).
Для тех, кто забыл, как выглядела Херцберг на камерах Убера, посмотрите еще раз:

Как тут не вспомнить популярную пару лет назад песню гр. Weeknd со строчкой: «It's a dark philosophy/ And it haunts her constantly / She's a false alarm to me / She's a false alarm». Что за темная философия преследовала бедную Херцберг? Тимоти Ли из издания «Arstechnica» интерпретировал неверное распознавание Херцберг как то, что перед Убером (и перед другими компаниями, которые тестируют беспилотные автомобили) стоит выбор: либо настроить софт так, чтобы он был максимально осторожен: каждый пакет, каждый куст он распознает как объект, на который нужно обратить внимание и объехать. Поэтому движение такого автомобиля медленное и прерывистое. Либо же настроить софт так, чтобы, даже замечая объекты на дорогах, быстро отличал существенные от несущественных и смело давил последние. И вместе с объектами, к сожалению, порой давил и пешеходов. Зато движение будет быстрым и гладким.
Убер, как считают, поторопился и сделал акцент на быстрой и гладкой езде в ущерб аккуратности, потому что хочет для своих будущих покупателей удобства в дороге. И хочет как можно быстрее протестировать и начать предоставлять услугу проезда. Но тут случилась Херцберг и Уберу пришлось на время совсем закрыть свои тесты.
В комментариях к новости часто пишут, что Убер нельзя выпускать на дороге, что компания поступает неверно, делая ставку на скорость, а не на осторожность (в отличие, например, от Вольво), что для густонаселенных городских районов аккуратный софт лучше, чем тот, который лихачит.

Но я хотел завершить другим. Можно надеть на себя целлофановую шапочку конспиролога и представить, что два анонимных источника, который внезапно раскрыли часть расследования – это план по тестированию общественного мнения. Правильно ли будет подать инцидент с Херцберг таким образом? Что вот – виноват софт, у которого тумблер был слишком вывернут на показатель «гладко и быстро», а нужно его переключить обратно на «медленно и осторожно». Хотели как лучше – чтобы людям было удобно, а получилось, к сожалению не очень (еще не доработали, дескать). И в этом случае получается не виноват никто – ни страховочный водитель, ни машина Вольво, ни хард Nvidia, ни лидары Velodyne, ни разработчики, не тестировщики. Все работало как нужно, просто заложили одни ценности, а нужно было другие. И еще потренировать нейронную сеть.
Мне кажется такая интерпретация самая удачная для Убера: никого обвинять не будут, а тумблер просто переключат на другой режим. И через некоторое время выпустят автомобили опять (как делает Калифорния, например). Но это точно не решит проблему того, как беспилотные автомобили должны взаимодействовать на дороге с разными типами людей и объектов. Потому что перебегание дороги – тоже социальная практика. Которую нужно заложить в автомобиль как возможность, а не как тип задачи на распознавание объектов. Если этого не понимает Убер, все же есть надежда на Ниссан, Вольво и Гугл, которые в свои команды зовут социологов и антропологов.