bannerbannerbanner
2062: время машин

Тоби Уолш
2062: время машин

Общий искусственный интеллект

Все ИИ, которые мы обсуждали до этого, были способны решить только одну конкретную задачу. Играть в го. Читать маммограммы. Анализировать акции. Цель разработки общего искусственного интеллекта (ОИИ) – написать программу, которая может делать все так же, как (или лучше, чем) человек. До осуществления этой цели нам все еще далеко, и, несмотря на те спекуляции, которые можно увидеть в прессе, выполнению этой задачи препятствуют серьезные факторы.

Во-первых, люди быстрообучаемы. Им приходится такими быть. У них это в ДНК. Нет времени учиться на собственных ошибках, когда за тобой гонится тигр. Системы ИИ же учатся не так быстро. Последние успехи в их обучении, связанные с игрой в го, переводом с китайского или распознаванием изображений, основываются на обработке огромного количества данных.

Существует множество условий, в которых мы не имеем такого количества данных, а также условия, в которых мы никогда их не будем иметь. К примеру, мой робот сломается, если упадет слишком много раз, когда будет учиться ходить. Мы также не обладаем большим количеством информации, если речь идет о каком-то редком заболевании. Или в случае, если фондовый рынок обрушится. Чтобы заполнить эти лакуны, нужно создать ИИ, который учится так же быстро, как человек.

Во-вторых, люди хорошо умеют объяснять свои решения. Это не менее важно, чем умение их принимать. Я могу не согласиться на операцию, если врач не сможет объяснить, почему она необходима. Ядерный реактор должен объяснить, почему он прекращает работу. Системы же ИИ всё еще остаются черными ящиками[26]. Они дают ответы, но не объясняют, как их получили. Алгоритм глубокого обучения может определить, что на фотографии кошка, но не сможет сказать, как он это определил. По наличию шерсти или четырем милым лапкам? Он также не может сказать, почему это не собака. Нам нужно создать такой ИИ, который будет способен объяснить свое решение.

В-третьих, люди хорошо понимают мир, в котором живут. Когда мы рождаемся, мы почти ничего не знаем о том, как он устроен. Вот яблоко падает на землю из-за гравитации. Вот дождь – выпаренная влага, капающая с неба. Вот Земля вращается вокруг Солнца, а Луна – вокруг Земли. Разумеется, Луна подчиняется тем же законам гравитации, что и яблоко. Мы выучили все это и многое другое. Мы собираем информацию и синтезируем ее в общее представление о том, как работает наша Вселенная.

Современные ИИ на такое не способны. Если вы предлагаете компьютеру перевести фразу «мужчина был беременным», он не поймет, что она звучит странно. Если показать ему картинку человека, выпускающего из руки яблоко, он не сможет определить, что яблоко впоследствии упадет на землю с ускорением в 9,8 м/с2. Нам все еще необходимо разработать ИИ, который будет иметь цельное представление о мире. Систему, которая обладала бы нашим здравым смыслом.

В-четвертых, люди хорошо умеют адаптироваться. Помести нас в новую ситуацию – мы тут же начнем приспосабливаться к ней. Когда на космическом корабле «Аполлон-13» взорвался бак с кислородом, весь мир затаил дыхание, пока астронавты и диспетчеры адаптировались к невозможным условиям и вернули экипаж на Землю невредимым.

Умение приспосабливаться и сделало нас доминирующим видом (и не только как в описанном выше случае) на планете.

Системы ИИ – довольно хрупкая вещь. Малейшие изменения в поставленной задаче нарушают ее работу. Существует специальная область изучения ИИ, занимающаяся поиском причин, по которым система работает некорректно. Какие изменения во внешнем виде знака «стоп» могут помешать ИИ его распознать? Какие похожие объекты он может принять за этот знак?

Нам еще предстоит создать такую систему ИИ, которая выходит из строя постепенно, как человек.

Сколько нам осталось?

С некоторыми узкими задачами машины справляются гораздо лучше человека. Однако мы все еще даже не приблизились к тому, чтобы построить ОИИ. Когда это произойдет? И как скоро после этого компьютеры станут умнее людей? Создаст ли это для нас проблемы? Или для наших детей и внуков? Учитывая миллионы лет, которые потребовались для возникновения человеческого разума, возможно, это произойдет не так скоро? Возможно, через века или даже тысячелетия? А может, вовсе никогда не случится?

На конференции 2017 года в «Асиломаре», посвященной будущему ИИ, Эндрю Макафи заметил: «Любой, кто уверенно озвучивает предсказания, связанные с будущим ИИ, врет либо вам, либо самому себе». Я постараюсь проигнорировать этот мудрый совет и все же попытаюсь сделать прогноз. Вообще-то, я не буду ничего предсказывать сам, за меня это сделает толпа экспертов в области ИИ. Понадеемся, что она кое-что смыслит в теме.

В январе 2017 года я попросил триста моих коллег, ученых, занимающихся искусственным интеллектом, дать оценку тому, сколько времени понадобится, чтобы преодолеть препятствия на пути к ОИИ. Я также опросил около пятисот человек, не являющихся экспертами в этой области, чтобы поместить утверждения моих коллег в контекст.

Люди, не имеющие отношения к ИИ, – читатели моей новостной статьи о программе Libratus, которая выиграла в покер у нескольких выдающихся игроков. В конце статьи я попросил читателей поучаствовать в небольшом опросе о противостоянии человека и машины. Я ожидал несовпадения между результатами этого опроса и мнением экспертов. И оказался прав.

Учитывая, что время, которое потребуется на создание ИИ, способного конкурировать с человеком, невозможно определить с точностью, опрос включал в себя три пункта. Когда вероятность того, что компьютер сможет заменить человека (хотя бы среднего специалиста) во всех профессиях, будет составлять десять процентов? Когда эта вероятность вырастет до пятидесяти процентов? А когда до девяноста? Это повторение вопросов из исследования 2012 года, опубликованного в книге Ника Бострома «Искусственный интеллект»[27]. Я хотел посмотреть, стали ли люди называть более близкие даты по сравнению с 2012 годом по причине всей шумихи, которая создавалась вокруг ИИ в последнее время. Опрос, проведенный Бостромом, был одним из главных доказательств его теории, что ИИ представляет относительно близкую угрозу для человечества. Если создание ОИИ ожидается в скором будущем, нам придется воспринять его предупреждение всерьез.

Но все оказалось иначе. Эксперты оказались в своих прогнозах относительно создания человекоподобного ИИ гораздо более осторожны, чем неэксперты. В качестве даты, когда вероятность этого составит девяносто процентов, эксперты в среднем называли 2112 год, а неэксперты – 2060-й[28].

Голливуд и текущая популярность темы ИИ – вот объяснение полувековой разницы между этими датами. Я часто шучу, что лучшее, что ИИ может сделать, чтобы успокоить людей и улучшить собственный имидж в их глазах, – основать сценарное агентство в Лос-Анджелесе.

В 2062 году, по мнению экспертов, эта вероятность составит пятьдесят процентов. Отсюда и название книги – год, в который, по мнению моих коллег, человек сможет построить ИИ, не уступающий ему. Неэксперты называли 2039 год, то есть дату на два десятилетия раньше. Они чуть оптимистичнее Рэя Курцвейла, футуролога и технического директора Google, который предполагает, что машины превзойдут человека в 2045 году.

Наконец, десятипроцентная вероятность такого развития событий станет возможна, по мнению экспертов, в 2034 году. Неэксперты считают, что это произойдет в 2026 году, то есть менее чем через десять лет. Почти в два раза ближе, чем дата, названная экспертами.

Почему эксперты менее оптимистичны, чем обычные люди? Одна из проблем заключается в том, что люди, которые видят, как ИИ великолепно играет в сложные игры вроде шахмат или го, делают из этого вывод, что раз это игры, требующие выдающихся интеллектуальных способностей, то ИИ уже ими обладает. В случае с людьми это действительно так. Хороший игрок в го скорее всего окажется умным человеком, но с компьютерами все иначе, ведь хорошая программа для игры в го необязательно должна уметь даже играть в шахматы. Между игрой в го и многими другими интеллектуальными задачами, которые могут решать люди, большая пропасть.

Мое мнение не отличается от мнения большинства моих коллег: пройдет как минимум полвека, прежде чем мы увидим человекоподобный компьютер. Учитывая, сколько для этого нужно совершить прорывов, которые тоже неизвестно, когда произойдут, это может занять даже сто или больше лет. В таком случае вам сегодня не о чем беспокоиться.

 

Технологическая сингулярность

Одним из поводов поверить в то, что машины вскоре догонят человека или даже превзойдут его, является привлекательная, но опасная идея технологической сингулярности. Ее история берет начало пятьдесят лет назад и обязана своим появлением нескольким людям: одному из создателей компьютера Джону фон Нейману и математику и криптографу, работавшему в Блетчли-парк, Ирвингу Дж. Гуду. В последние годы идея была популяризирована научным фантастом Верноном Винджем и футурологом Рэем Курцвейлом.

Сингулярность – это предполагаемая точка в человеческой истории, когда будет разработан компьютер с таким интеллектом, который позволит ему самостоятельно развиваться и становиться умнее с каждым днем. Идея заключается в том, что интеллект машины начнет экспоненциально увеличиваться и быстро превосходить человеческий в разы.

Как только мы достигнем технологической сингулярности, мы перестанем быть самыми умными существами на планете. Наступит действительно интересный этап истории. Некоторые боятся, что это произойдет так быстро, что мы не успеем отследить и проконтролировать развитие ИИ, что приведет к – намеренному или ненамеренному – уничтожению человеческого рода.

Сторонники этой теории – чаще философы и футурологи, чем ученые, занимающиеся ИИ, – говорят об этом так, словно сингулярность неизбежна. Для них этот факт не подлежит сомнению, вопрос лишь в том, когда это произойдет. Однако, как и большинство моих коллег, я имею веский повод сомневаться в неизбежности наступления сингулярности.

В результате полувековых исследований мы осознали, насколько сложно создать компьютер, обладающий хотя бы примитивным интеллектом. Нам не удалось разработать ни одной системы, которая могла бы сама себя улучшить. Даже самая развитая интеллектуальная система, существующая на земле, – человеческий мозг – лишь несущественно повысила собственные когнитивные способности. Нам, например, все так же тяжело выучить второй язык. То скромное представление, которое мы имеем о человеческом мозге, не очень облегчает задачу. С 1930 года наблюдается значительный постоянный рост в результатах тестирования на интеллект в разных частях света. Этот феномен носит название «эффекта Флинна» в честь новозеландского ученого Джеймса Флинна, который многое сделал для того, чтобы его понять. Объяснения феномена сосредоточены скорее на улучшении питания, здравоохранения и большем доступе к школьному образованию, чем на том, как именно мы обучаем молодых людей[29].

Существуют множественные технические причины, по которым технологическая сингулярность может и не случиться. Многие из них я рассматривал в своей предыдущей книге. Тем не менее мнение о неизбежности сингулярности все еще достаточно популярно. Учитывая важность темы – на кону судьба человеческой расы, – я снова подробно остановлюсь на этих причинах в свете последних обсуждений феномена. Кроме того, я приведу новые аргументы в защиту своей позиции.

Быстро думающая собака

Мое первое возражение против неизбежности технологической сингулярности – это идея под названием «аргумент быстро думающей собаки». Он рассматривает последствия, к которым приводит способность мыслить быстрее. Несмотря на то что скорость компьютера не меняется, скорость обработки им данных продолжает расти. Это происходит благодаря тому, что он может выполнять все больше разных задач одновременно, как человеческий мозг.

Есть предположение, что если машины научатся размышлять над проблемами дольше и интенсивнее, они в конце концов станут умнее нас. Мы, разумеется, извлекли немало пользы из возросшей мощности компьютера, смартфон – лучшее тому доказательство. Однако скорость обработки данных сама по себе не приведет к сингулярности.

Предположим, что вы бы смогли увеличить скорость работы мозга вашей собаки. Такая собака все равно не смогла бы говорить с вами, играть в шахматы или сочинять сонеты. Как минимум потому что она не владеет языком. Такая быстро думающая собака все равно осталась бы собакой. Она продолжала бы интересоваться только погонями за белками и палками. Точно так же компьютеры, обладающие большей скоростью, не являются носителями большего интеллекта.

Разум – результат множества процессов. Человеку необходимы годы практики, чтобы научиться пользоваться интуицией. Также годы нужны, чтобы освоить абстрактное мышление: научиться брать уже сложившиеся понятия и применять их к новым ситуациям. К нашему здравому смыслу мы прибавляем знания, которые помогают нам адаптироваться к непривычным обстоятельствам. Именно поэтому наш интеллект – это не просто умение быстрее размышлять над проблемой.

Переломный момент

Мой второй аргумент против неизбежности сингулярности – антропоцентризм. Защитники теории технологической сингулярности придают слишком много значения человеческому интеллекту. Как только компьютеры превзойдут его, настанет переломный момент. Они научатся развиваться и делать себя лучше. Но почему человеческий интеллект – особая точка в этой истории?

Человеческий интеллект нельзя оценивать по настолько простой, линейной шкале. И даже если бы это было возможно, наш разум был бы не единой точкой, а широким спектром разных вариантов. Из нескольких людей, находящихся в комнате, одни умнее других. Так какой именно человеческий интеллект компьютеры должны превзойти? Интеллект самого умного человека в комнате? Интеллект самого умного человека, который сейчас живет на планете? Интеллект самого умного человека, который когда-либо жил на планете? Интеллект самого умного человека, который будет жить в будущем? Сама идея единого «человеческого разума» начинает звучать несколько сомнительно.

Но отставим на минуту в сторону эти контраргументы. Почему именно после преодоления человеческого разума искусственный интеллект начнет стремительно развиваться? Предположение основывается на том, что раз мы смогли создать машину, которая умнее нас, то ей тоже удастся создать еще более умную машину и т. д. Однако нет никакого повода думать, что все будет именно так. Может быть, нам все же удастся построить машину, которая умнее нас. Это не значит, что она автоматически будет способна развиваться.

Возможно, действительно существует некий уровень интеллекта, который станет такой переломной точкой, но этот уровень может быть любым. Вряд ли он находится ниже уровня человеческого мышления. Если бы это было так, мы бы уже создали подобную машину и запустили процесс ее бесконечного совершенствования.

Вероятно, эта переломная точка располагается где-то на уровне человеческого разума или выше. Естественно, она может находиться намного выше. Однако если нам для этого нужно создать компьютер, в разы превосходящий человека, то встает вопрос: достаточно ли мы для этого умны?

За гранью разумного

Третий мой аргумент, направленный против идеи неизбежности технологической сингулярности, затрагивает проблему метаинтеллекта. Как я уже отмечал ранее, понятие разума включает в себя множество различных способностей. Например, умение не только воспринимать мир, но и рефлексировать над этим миром, а также множество других навыков, таких как креативность.

Утверждение, что сингулярность неизбежна, сталкивает две разные способности интеллекта: это умение выполнять задачи и умение совершенствоваться в выполнении этих задач. Мы можем создать ИИ, который развивает свою способность выполнять конкретные задачи и выполняет их лучше нас. Например, Baidu создали Deep Speech 2, алгоритм машинного обучения, который лучше, чем люди, переводит с китайского. Однако Deep Speech 2 не развивается. Ему необходимо столько же времени на то, чтобы понять, как перевести с китайского, сколько и раньше. Его сверхчеловеческая способность переводить с китайского никак не улучшила суть алгоритма глубинного обучения. Чем больше люди учатся, тем лучше они начинают это делать. С Deep Speech 2 все иначе.

Совершенствование алгоритмов глубинного обучения происходит по-старому: люди долго и напряженно размышляют над тем, как это сделать. Пока мы не создали машины, способные развиваться самостоятельно. Нельзя быть уверенным, что это вообще когда-нибудь произойдет.

Убывающая отдача

Четвертый аргумент – закон убывающей отдачи. Даже если бы машины могли бесконечно себя совершенствовать, это вовсе не означает, что мы бы получили бесконечное их улучшение. Закон убывающей отдачи работает во многих областях человеческой деятельности. Например, мы не раз увеличивали топливную эффективность двигателей автомобилей, но чем дальше, тем меньше это приносит результатов, в то время как показатель продолжает увеличиваться.

Предположим, мы сначала создадим машину с интеллектом на уровне среднестатистического представителя нашего вида. По умолчанию ее IQ будет равен ста. Также допустим, что IQ этого искусственного интеллекта будет с каждым новым поколением увеличиваться на пятьдесят процентов от разницы с предыдущим поколением. IQ – не самый лучший показатель интеллекта, но это не главное. Второе поколение таких машин будет иметь IQ в размере ста пятидесяти – довольно впечатляющая цифра. Однако пока она, возможно, даже не обогнала вас. Коэффициент третьего поколения будет равен ста семидесяти пяти, четвертого – ста восьмидесяти семи с половиной и т. д. IQ этих машин никогда не преодолеет отметку в двести, как бы долго они ни просуществовали.

Даже если мы поднимем процент от пятидесяти до девяноста, мы все равно столкнемся с теми же ограничениями. У второго поколения IQ будет сто девяносто. У третьего – двести семьдесят один. Здесь и находится задокументированный предел человеческого интеллекта. Четвертое поколение его преодолеет и достигнет отметки в триста сорок три целых и девять десятых. Но как бы далеко в будущее мы ни заглянули, IQ этих впечатляющих компьютеров никогда не составит больше тысячи. Они будут невероятно умны, но все же их развитие будет иметь вполне определенные границы.

Пределы интеллекта

Мой пятый аргумент против неизбежности сингулярности – это пределы интеллекта. Даже если машины будут рекурсивно совершенствоваться, развитие может упереться в естественные пределы. Многие другие сферы жизни имеют границы, почему интеллект должен от них отличаться?

Наука полна ограничений. Физика, например, утверждает, что нельзя разогнаться выше скорости света. Химия – что скорость химической реакции тоже имеет свои пределы. Биология – что человеческую жизнь невозможно увеличить намного больше ста двадцати лет или что невозможно бежать марафон в течение двух часов. Возможно, ИИ тоже столкнется с подобными ограничениями?

При игре в рулетку не имеет значения, насколько вы умны, – вы никогда не обыграете казино. Колесо в буквальном смысле настроено против вас. Самый умный человек в этом случае просто не станет играть. Компьютеры умеют считать вероятности гораздо лучше людей. Они могут поступать намного рациональнее. Однако более точный подсчет вероятности не поможет им победить природу. Лучшим решением может оказаться то, для нахождения которого достаточно гораздо более простых и грубых расчетов.

Вычислительная сложность

Мой шестой аргумент основан на понятии вычислительной сложности – хорошо разработанной математической теории, которая описывает сложность разрешения некоторых вычислительных проблем. Пока мы не изобретем машины, основанные на еще неизвестных формах вычисления, даже экспоненциальные улучшения не помогут нам из-за существования фундаментальных пределов возможного для компьютеров.

Закон Мура – увеличение мощности компьютеров каждые два года – убедил нас в том, что технологический прогресс сможет решить большинство вычислительных задач[30]. Мы живем в экспоненциальное время, и экспоненциальные улучшения в вычислительной мощности дают повод верить, что нам остается подождать нужного поколения компьютеров. Через десять лет машины станут в тысячу раз мощнее, чем нынешние компьютеры. Через двадцать лет – в миллион раз. Через тридцать – в миллиард. То есть можно с уверенностью сказать, что однажды компьютеры будут владеть такой вычислительной мощностью, что мы сможем делать с их помощью все, что захотим? К сожалению, это предположение далеко от правды.

 

Ученые разработали серьезную теорию вычислительной сложности. Она описывает, сколько вычислений нужно, чтобы решить разные проблемы конкретным или абстрактным способом. Для теории вычислительной сложности не имеет значения, какой именно компьютер используется. Это может быть персональный компьютер, смартфон или умные часы. Разница в устройстве обусловливает только разницу во времени выполнения задачи, ее постоянный коэффициент. То, что нас интересует, касается гораздо больших изменений во времени выполнения, чем постоянный коэффициент задачи. Для нас важен экспоненциальный рост, и, как мы увидим в дальнейшем, даже больше, чем экспоненциальный.

Допустим, вы хотите вычислить наибольшее число в списке. Это – линейная проблема. Вам необходимо просканировать весь список. Этот процесс займет время, пропорциональное количеству входных данных, то есть объему списка. Если список удвоить, это займет в два раза больше времени. Если утроить – в три раза.

А теперь представим, как можно упорядочить этот список – от меньшего к большему. Простейший метод заключается в том, чтобы найти для начала меньший пункт; как мы только что выяснили, это займет пропорциональное объему списка время. Затем необходимо найти предпоследнюю по величине вещь и т. д. В итоге время, которое нужно потратить на сортировку этого или любого другого списка, увеличивается в геометрической прогрессии. Если удвоить длину списка, это займет в четыре раза больше времени. Если утроить – в девять раз. Если учетверить – в шестнадцать. Звучит так себе. Однако вычисления могут масштабироваться еще хуже.

Существуют такие вычислительные проблемы, в которых время выполнения растет экспоненциально вместе с объемом входных данных. Представьте себе такую задачу: супруги при разводе хотят поделить свое имущество на две равноценные части. Простейший метод решения – это высчитать сумму каждой возможной комбинации вещей. Если стоимость одной из таких комбинаций равна половине стоимости всего имущества, то ответ найден. Каждый раз к входным данным – списку вещей – прибавляется одна единица, количество комбинаций, которые надо учитывать, удваивается, как и (в худшем случае) время выполнения алгоритма.

Хорошие новости заключаются в том, что экспоненциальный рост вычислительной мощности поможет решить подобные проблемы. Каждое удвоение мощности позволит выполнить задачу, в которой на одну вещь больше. Каков бы ни был объем входных данных, в конце концов он попадет в этот диапазон. Для того чтобы обработать информацию, включающую в себя на десять единиц больше возможного, нужно просто подождать еще десять поколений компьютеров.

Однако есть и вычислительные задачи, в которых время выполнения увеличивается быстрее. В таком случае экспоненциальный рост не спасет. Например, проблема вычисления площади множества Мандельброта. Множество Мандельброта – это тот прекрасный фрактал, который выглядит как спирали и морские коньки. Его называют самым сложным числом в математике.

Нам известно, что площадь множества Мандельброта ограничена. Этот фрактал находится внутри круга радиуса два, а его площадь соответственно меньше 4π (=12,566…). Однако высчитать его точную площадь, как нам известно, очень непросто. Лучший возможный метод – это медленно вычислять точки площади. Нужно сложить 10118 членов, чтобы высчитать площадь с точностью до сотых, 101181 – с точностью до тысячных. 10118 – это больше, чем атомов во Вселенной. Экспоненциальный рост не поможет справиться с такими сложными вычислительными задачами.

26В авиации черный ящик (на самом деле он обычно красного или оранжевого цвета) записывает много внутренней информации о самолете. Черный ящик в ИИ – это система, где можно видеть только входные и выходные данные. Невозможно пронаблюдать, что происходит внутри и как входные данные превращаются в выходные. Противоположность черного ящика – стеклянный ящик, который позволяет следить за внутренними процессами.
27Бостром Н. Искусственный интеллект. Этапы. Угрозы. Стратегии. М.: Манн, Иванов и Фербер, 2016.
28Средний прогноз – это год, к которому, как говорят опрошенные, компьютеры сравняются с человеком по уровню интеллекта. Основной прогноз отсылал к неопределенному количеству времени в будущем: небольшой процент экспертов и обычных людей предположили, что этого никогда не произойдет.
29Некоторые данные тестов IQ в датских и американских вооруженных силах свидетельствуют, что показатели в последнее время даже стали снижаться.
30Закон Мура назван в честь Гордона Мура, сооснователя компаний Fairchild Semiconductor и Intel. В 1965 году он описал ежегодное удвоение количества компонентов на интегральной схеме. В 1975 году он округлил срок до двух лет. Закон Мура действовал больше пятидесяти лет. Мало кто знает, что он устарел уже несколько лет назад. Любой экспоненциальный тренд, существующий в реальном мире, рано или поздно заканчивается. В этом случае проблема заключалась в квантовых пределах. International Technology Roadmap for Semiconductors (ITRS) – это отраслевой орган, который, как следует из его названия, разрабатывает «дорожную карту» для достижения закона Мура. В 2014-м ITRS объявил о том, что цель индустрии больше не заключается в удвоении компонентов каждые два года. Учитывая, что теперь это не входит в планы больших компаний, производящих микропроцессоры, мы можем быть уверены в том, что этого не произойдет. Никто не собирается тратить миллиарды долларов, необходимых для изготовления следующего поколения станков для производства чипов, чтобы еще больше сократить размеры транзисторов. Любопытно, что нынешние цели Intel – это уменьшить потребление энергии, чтобы мобильные устройства могли иметь больше вычислительной мощности.
1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18 
Рейтинг@Mail.ru