Google Brain: відмінності між версіями

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
[неперевірена версія][неперевірена версія]
Вилучено вміст Додано вміст
SemenetsMF42 (обговорення | внесок)
Немає опису редагування
SemenetsMF42 (обговорення | внесок)
Створено шляхом перекладу сторінки «Google Brain»
Мітки: потенційно неавторитетне джерело [вмісту] [вмісту 2»]
Рядок 1: Рядок 1:
=== Покращення зображень ===
{{Універсальна картка}}
У лютому 2017 року Google Brain визначив [[імовірнісний метод]] для перетворення зображень з роздільною здатністю 8x8 в [[Роздільна здатність (комп'ютерна графіка)|роздільну]] здатність 32x32. <ref>{{Cite journal|last=Dahl|first=Ryan|last2=Norouzi|first2=Mohammad|last3=Shlens|first3=Jonathon|date=2017|title=Pixel Recursive Super Resolution|arxiv=1702.00783|bibcode=2017arXiv170200783D}}</ref> <ref name=":14">{{Cite web|date=2017-02-07|title=Google Brain super-resolution image tech makes "zoom, enhance!" real|url=https://arstechnica.com/information-technology/2017/02/google-brain-super-resolution-zoom-enhance/|accessdate=2017-05-15|website=arstechnica.co.uk}}<cite class="citation web cs1" data-ve-ignore="true">[https://arstechnica.com/information-technology/2017/02/google-brain-super-resolution-zoom-enhance/ "Google Brain super-resolution image tech makes "zoom, enhance!" real"]. ''arstechnica.co.uk''. 2017-02-07<span class="reference-accessdate">. Retrieved <span class="nowrap">2017-05-15</span></span>.</cite></ref> Метод, заснований на імовірнісній моделі, що вже існує, яка називається pixelCNN, для генерування трансльованих пікселів. <ref>{{Citation|last=Bulat|isbn=978-3-030-01230-4|doi=10.1007/978-3-030-01231-1_12|first3=Georgios|last3=Tzimiropoulos|first2=Jing|last2=Yang|access-date=2021-04-09|publisher=Springer International Publishing|first=Adrian|place=Cham|pages=187–202|journal=Computer Vision – ECCV 2018|url=http://dx.doi.org/10.1007/978-3-030-01231-1_12|date=2018|title=To Learn Image Super-Resolution, Use a GAN to Learn How to Do Image Degradation First|arxiv=1807.11458}}</ref> <ref>{{Cite journal|last=Oord|first=Aaron Van|last2=Kalchbrenner|first2=Nal|last3=Kavukcuoglu|first3=Koray|date=2016-06-11|title=Pixel Recurrent Neural Networks|url=http://proceedings.mlr.press/v48/oord16.html|journal=International Conference on Machine Learning|language=en|publisher=PMLR|pages=1747–1756|arxiv=1601.06759}}</ref>
'''Google Brain'''&nbsp;— це група з глибокого вивчення штучного інтелекту під керівництвом {{Не перекладено|Google AI|Google AI|en|}}, дослідницького підрозділу Google, присвяченого штучному інтелекту. Створена у 2011 році, Google Brain поєднує відкриті дослідження машинного навчання з інформаційними системами та великими обчислювальними ресурсами.<ref>[https://www.geeksforgeeks.org/what-is-google-brain/ «What is Google Brain?»] {{Webarchive|url=https://web.archive.org/web/20210602212622/https://www.geeksforgeeks.org/what-is-google-brain/ |date=2 червня 2021 }}. ''GeeksforGeeks''. 2020-02-06. Retrieved 2021-04-09</ref> Команда створила такі інструменти, як [[TensorFlow]], який надає публічний доступ для роботи із нейронною мережею, з безліччю внутрішніх наукових проектів у сфері AI.<ref name=":0">Helms, Mallory; Ault, Shaun V.; Mao, Guifen; Wang, Jin (2018-03-09). [[doi:10.1145/3206157.3206175|"An Overview of Google Brain and Its Applications"]]. ''Proceedings of the 2018 International Conference on Big Data and Education''. ICBDE '18. Honolulu, HI, USA: Association for Computing Machinery: 72–75. [[Цифровий ідентифікатор об'єкта|doi]]:[[doi:10.1145/3206157.3206175|10.1145/3206157.3206175]]. ISBN <bdi>978-1-4503-6358-7</bdi>. S2CID 44107806.</ref> Команда націлена на створення дослідницьких можливостей у [[Машинне навчання|машинному навчанні]] та [[Обробка природної мови|обробці природних мов]].<ref name=":0" />


Запропоноване програмне забезпечення використовує дві [[нейронні мережі]] для апроксимації [[Піксель|піксельного]] складу зображень, які транслюються. <ref name=":14">{{Cite web|date=2017-02-07|title=Google Brain super-resolution image tech makes "zoom, enhance!" real|url=https://arstechnica.com/information-technology/2017/02/google-brain-super-resolution-zoom-enhance/|accessdate=2017-05-15|website=arstechnica.co.uk}}</ref> <ref>{{Cite web|title=Google uses AI to sharpen low-res images|url=https://www.engadget.com/2017/02/07/google-ai-image-enhancement/|accessdate=2017-05-15|website=engadget.com}}</ref> Перша мережа, відома як «мережа кондиціонування», зменшує розміри зображень з [[Роздільна здатність (комп'ютерна графіка)|високою роздільною]] здатністю до 8x8 і намагається створити відображення з оригінального зображення 8x8 до цих зображень з вищою роздільною здатністю. <ref name=":14" /> Інша мережа, відома як «перша мережа», використовує відображення з попередньої мережі, щоб додати більше деталей до вихідного зображення. <ref name=":14" /> Отримане трансльоване зображення – це не те саме зображення у вищій роздільній здатності, а скоріше оцінка з роздільною здатністю 32x32, зроблена на основі інших існуючих зображень із високою роздільною здатністю. <ref name=":14" /> Результати Google Brain вказують на можливість нейронних мереж покращувати зображення. <ref>{{Cite web|title=Google just made 'zoom and enhance' a reality -- kinda|url=https://www.cnet.com/news/google-just-made-zoom-and-enhance-a-reality/|accessdate=2017-05-15|website=cnet.com}}</ref>
== Історія ==
Так званий проект «Google Brain» почався в 2011 році як сторонній дослідний проект наукового співробітника Google [[Джефф Дін (програміст)|Джеффа Діна]], дослідника Google Грега Коррадо і професора [[Стенфордський університет|Стенфордського університету]] [[Ендрю Ин]]а.<ref name=":1">* {{Не перекладено|Джон Маркофф||en|John_Markoff}}(June 25, 2012). [https://www.nytimes.com/2012/06/26/technology/in-a-big-network-of-computers-evidence-of-machine-learning.html?pagewanted=all «How Many Computers to Identify a Cat? 16,000»] {{Webarchive|url=https://web.archive.org/web/20170509222756/http://www.nytimes.com/2012/06/26/technology/in-a-big-network-of-computers-evidence-of-machine-learning.html?pagewanted=all |date=9 травня 2017 }}. ''The New York Times''. Retrieved February 11, 2014.</ref> Ин цікавився використанням методів [[Глибинне навчання|глибокого навчання]] для вирішення завдань [[Штучний інтелект|штучного інтелекту]] з 2006 року, а у 2011 році почав співпрацювати з Діном і Коррадо для створення великомасштабної системи глибокого навчання [[TensorFlow|DistBelief]]<ref>Jeffrey Dean; et al. (December 2012). [http://papers.nips.cc/paper/4687-large-scale-distributed-deep-networks.pdf «Large Scale Distributed Deep Networks»] {{Webarchive|url=https://web.archive.org/web/20160126084051/http://papers.nips.cc/paper/4687-large-scale-distributed-deep-networks.pdf |date=26 січня 2016 }} (PDF). Retrieved 25 October 2015.</ref> поверх інфраструктури хмарних обчислень Google. Google Brain був запущений як проект [[X (Google)|Google X]] і став настільки успішним, що повернувся назад в Google: {{Не перекладено|Астро Теллер|Астро Теллер|en|Astro Teller}} сказав, що Google Brain окупив всю вартість Google X.<ref>Conor Dougherty (16 February 2015). [http://bits.blogs.nytimes.com/2015/02/16/googles-captain-of-moonshots-on-making-profits-at-google-x/ «Astro Teller, Google's 'Captain of Moonshots,' on Making Profits at Google X»] {{Webarchive|url=https://web.archive.org/web/20151022154103/http://bits.blogs.nytimes.com/2015/02/16/googles-captain-of-moonshots-on-making-profits-at-google-x/ |date=22 жовтня 2015 }}. Retrieved 25 October 2015.</ref>


=== Google Перекладач ===
У червні 2012 року [[Нью-Йорк таймс|New York Times]] повідомила, що кластер з 16000 комп'ютерів, призначених для імітації деяких аспектів діяльності мозку людини, навчився розпізнавати котів на основі 10 мільйонів цифрових зображень, отриманих з роликів на [[YouTube]].<ref name=":1" /> Також ця історія була висвітлена на [[National Public Radio]] і в [[Життєпридатність планети|Smart Planetruen]].<ref>[https://www.npr.org/2012/06/26/155792609/a-massive-google-network-learns-to-identify «A Massive Google Network Learns To Identify&nbsp;— Cats»] {{Webarchive|url=https://web.archive.org/web/20210613075445/https://www.npr.org/2012/06/26/155792609/a-massive-google-network-learns-to-identify |date=13 червня 2021 }}. [[National Public Radio]]. June 26, 2012. Retrieved February 11, 2014.</ref>
Команда Google Brain внесла свій внесок у проект [[Перекладач Google|Google Translate]], використавши нову систему глибокого навчання, яка поєднує штучні нейронні мережі з величезними базами даних [[Багатомовність|багатомовних]] текстів. <ref name=":0">{{Cite journal|last=Castelvecchi|first=Davide|year=2016|title=Deep learning boosts Google Translate tool|url=http://www.nature.com/news/deep-learning-boosts-google-translate-tool-1.20696|journal=Nature News|language=en|doi=10.1038/nature.2016.20696}}</ref> У вересні 2016 року було запущено [[Нейронний машинний переклад Google|Google Neural Machine Translation]] ([[Нейронний машинний переклад Google|GNMT]]), наскрізну систему навчання, яка може вчитися на великій кількості прикладів. <ref name=":0" /> Раніше підхід Google Translate на основі фразового машинного перекладу (PBMT) статистично аналізував слово за словом і намагався знайти відповідні слова іншими мовами, не враховуючи навколишні фрази в реченні. <ref name=":1">{{Cite news|last=Lewis-Kraus|first=Gideon|date=2016-12-14|title=The Great A.I. Awakening|language=en-US|work=The New York Times|url=https://www.nytimes.com/2016/12/14/magazine/the-great-ai-awakening.html|accessdate=2021-04-08|issn=0362-4331}}</ref> Але замість того, щоб вибирати заміну для кожного окремого слова бажаною мовою, [[Нейронний машинний переклад Google|GNMT]] оцінює сегменти слів у контексті решти речення, щоб вибрати більш точні заміни. <ref name=":2">{{Cite journal|last=Helms|first=Mallory|last2=Ault|first2=Shaun V.|last3=Mao|first3=Guifen|last4=Wang|first4=Jin|date=2018-03-09|title=An Overview of Google Brain and Its Applications|url=https://doi.org/10.1145/3206157.3206175|journal=Proceedings of the 2018 International Conference on Big Data and Education|series=ICBDE '18|location=Honolulu, HI, USA|publisher=Association for Computing Machinery|pages=72–75|doi=10.1145/3206157.3206175|isbn=978-1-4503-6358-7}}</ref> У порівнянні зі старішими моделями PBMT, модель [[Нейронний машинний переклад Google|GNMT]] набрала 24% покращення схожості з перекладом, який зробила людина, при цьому кількість помилок зменшилася на 60%. <ref name=":2" /> <ref name=":0" /> GNMT також продемонстрував значне покращення для свідомо складних перекладів, таких як переклад [[Китайська мова|китайської]] мови на [[Англійська мова|англійську]]. <ref name=":0" />


Хоча запровадження GNMT підвищило якість перекладів Google Translate для пілотних мов, було дуже важко створити такі покращення для всіх його 103 мов. Вирішуючи цю проблему, команда Google Brain Team змогла розробити [[Багатомовність|багатомовну]] систему [[Нейронний машинний переклад Google|GNMT]], яка розширила попередню, забезпечивши переклади між кількома мовами. Крім того, вона дозволяє здійснювати переклади Zero-Shot, що є перекладами між двома мовами, які система ніколи раніше явно не бачила. <ref>{{Cite journal|last=Johnson|first=Melvin|last2=Schuster|first2=Mike|last3=Le|first3=Quoc V.|last4=Krikun|first4=Maxim|last5=Wu|first5=Yonghui|last6=Chen|first6=Zhifeng|last7=Thorat|first7=Nikhil|last8=Viégas|first8=Fernanda|last9=Wattenberg|first9=Martin|date=2017-10-01|title=Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation|journal=Transactions of the Association for Computational Linguistics|volume=5|pages=339–351|doi=10.1162/tacl_a_00065|issn=2307-387X|doi-access=free}}</ref> Google оголосила, що Google Translate тепер також може перекладати без транскрибування, використовуючи нейронні мережі. Це означає, що можливо перекласти мовлення однією мовою безпосередньо в текст іншою мовою, попередньо не транскрибуючи її в текст. За словами дослідників Google Brain, цього проміжного кроку можна уникнути за допомогою нейронних мереж. Щоб система засвоїла це, вони ознайомили її з багатогодинним аудіо іспанською мовою разом із відповідним англійським текстом. Різні шари нейронних мереж, що копіюють людський мозок, змогли зв’язати відповідні частини і згодом маніпулювати звуковою формою, поки вона не була перетворена в англійський текст. <ref>{{Cite web|last=Reynolds|first=Matt|title=Google uses neural networks to translate without transcribing|url=https://www.newscientist.com/article/2126738-google-uses-neural-networks-to-translate-without-transcribing/|website=New Scientist|accessdate=15 May 2017}}</ref> Іншим недоліком моделі GNMT є те, що час перекладу збільшується в геометричній прогресії разом із кількістю слів у реченні. <ref name=":2">{{Cite journal|last=Helms|first=Mallory|last2=Ault|first2=Shaun V.|last3=Mao|first3=Guifen|last4=Wang|first4=Jin|date=2018-03-09|title=An Overview of Google Brain and Its Applications|url=https://doi.org/10.1145/3206157.3206175|journal=Proceedings of the 2018 International Conference on Big Data and Education|series=ICBDE '18|location=Honolulu, HI, USA|publisher=Association for Computing Machinery|pages=72–75|doi=10.1145/3206157.3206175|isbn=978-1-4503-6358-7}}<cite class="citation journal cs1" data-ve-ignore="true" id="CITEREFHelmsAultMaoWang2018">Helms, Mallory; Ault, Shaun V.; Mao, Guifen; Wang, Jin (2018-03-09). [[doi:10.1145/3206157.3206175|"An Overview of Google Brain and Its Applications"]]. ''Proceedings of the 2018 International Conference on Big Data and Education''. ICBDE '18. Honolulu, HI, USA: Association for Computing Machinery: 72–75. [[Цифровий ідентифікатор об'єкта|doi]]:[[doi:10.1145/3206157.3206175|10.1145/3206157.3206175]]. [[ISBN]]&nbsp;[[Спеціальний: Книжкові джерела/978-1-4503-6358-7|<bdi>978-1-4503-6358-7</bdi>]]. [[S2CID (ідентифікатор)|S2CID]]&nbsp;[https://api.semanticscholar.org/CorpusID:44107806 44107806].</cite></ref> Це змусило команду Google Brain Team додати ще 2000 процесорів, щоб гарантувати, що новий процес перекладу буде швидким і надійним. <ref name=":1">{{Cite news|last=Lewis-Kraus|first=Gideon|date=2016-12-14|title=The Great A.I. Awakening|language=en-US|work=The New York Times|url=https://www.nytimes.com/2016/12/14/magazine/the-great-ai-awakening.html|accessdate=2021-04-08|issn=0362-4331}}<cite class="citation news cs1" data-ve-ignore="true" id="CITEREFLewis-Kraus2016">Lewis-Kraus, Gideon (2016-12-14). [https://www.nytimes.com/2016/12/14/magazine/the-great-ai-awakening.html "The Great A.I. Awakening"]. ''The New York Times''. [[ISSN]]&nbsp;[//www.worldcat.org/issn/0362-4331 0362-4331]<span class="reference-accessdate">. Retrieved <span class="nowrap">2021-04-08</span></span>.</cite></ref>
У березні 2013 року Google найняла [[Джефрі Гінтон]]а, провідного дослідника в області глибокого навчання, і придбала компанію DNNResearch, якою керував Гінтон. Гінтон сказав, що буде розподіляти свій час між дослідженням в університеті і роботою в Google.<ref>[http://media.utoronto.ca/media-releases/u-of-t-neural-networks-start-up-acquired-by-google/ «U of T neural networks start-up acquired by Google»] {{Webarchive|url=https://web.archive.org/web/20191008004030/https://media.utoronto.ca/media-releases/u-of-t-neural-networks-start-up-acquired-by-google/ |date=8 жовтня 2019 }} (Press release). Toronto, ON. 12 March 2013. Retrieved 13 March 2013.</ref>


=== Робототехніка ===
== Команда і місце розташування ==
Прагнучи покращити традиційні алгоритми керування робототехнікою, де нові навички робота потрібно [[Мова програмування|програмувати вручну]], дослідники з робототехніки з Google Brain розробляють методи [[Машинне навчання|машинного навчання]], які б дозволили роботам опановувати нові навички самостійно. <ref>{{Cite news|last=Metz|first=Cade|last2=Dawson|first2=Brian|last3=Felling|first3=Meg|date=2019-03-26|title=Inside Google's Rebooted Robotics Program|language=en-US|work=The New York Times|url=https://www.nytimes.com/2019/03/26/technology/google-robotics-lab.html|accessdate=2021-04-08|issn=0362-4331}}</ref> Вони також намагаються розробити способи обміну інформацією між роботами, щоб роботи могли вчитися один у одного під час процесу навчання, також відомого як [[хмарна робототехніка]].<ref name=":3">{{Cite web|date=2018-10-24|title=Google Cloud Robotics Platform coming to developers in 2019|url=https://www.therobotreport.com/google-cloud-robotics-platform/|accessdate=2021-04-08|website=The Robot Report|language=en-US}}</ref> Як результат, Google запустила платформу Google Cloud Robotics Platform для розробників у 2019 році, намагаючись об’єднати [[Робототехніка|робототехніку]], [[Штучний інтелект|AI]] та [[Хмарні обчислення|хмару]], щоб забезпечити ефективну автоматизацію роботи через підключених до хмари роботів, які співпрацюють один з одним.<ref name=":3" />
Спочатку Google Brain був створений науковим співробітником Google [[Джефф Дін (програміст)|Джеффом Діном]] і запрошеним зі Стенфорда професором [[Ендрю Ин]]ом. У 2014 році до складу команди увійшли Джефф Дін, Куок Ле, Ілля Суцкевер, Алекс Крижевський, {{Не перекладено|Семі Бенджо|Семі Бенджо|en|Samy Bengio}} та Вінсент Ванхуке. На 2017 рік членами команд є: Анелія Ангелова, Семі Бенджо, Грег Коррадо, Джордж Дал (дослідник машинного навчання), Майкл Ізард, Анжулі Каннан, Уго Ларочелле, Квок Ле, Крис Ола, Вінсент Ванхуке, Віджей Васудеван та {{Не перекладено|Фернанда Вігас|Фернанда Вігас|en|Fernanda Viégas}}.<ref name=":2">[https://research.google/teams/brain/ «Brain Team&nbsp;— Google Research»] {{Webarchive|url=https://web.archive.org/web/20211002135134/https://research.google/teams/brain/ |date=2 жовтня 2021 }}. ''Google Research''. Retrieved 2021-04-08.</ref> {{Не перекладено|Крис Латтнер|Крис Латтнер|en|Chris Lattner}}, який створив мову програмування [[Apple Inc.|Apple]] [[Swift (мова програмування)|Swift]], а потім очолював команду безпілотних автомобілів [[Tesla Inc.|Tesla]] протягом шести місяців, приєднався до команди Google Brain в серпні 2017 року.<ref>Etherington, Darrell (Aug 14, 2017). [https://techcrunch.com/2017/08/14/swift-creator-chris-lattner-joins-google-brain-after-tesla-autopilot-stint/ «Swift creator Chris Lattner joins Google Brain after Tesla Autopilot stint»] {{Webarchive|url=https://web.archive.org/web/20210819133919/https://techcrunch.com/2017/08/14/swift-creator-chris-lattner-joins-google-brain-after-tesla-autopilot-stint/ |date=19 серпня 2021 }}. ''TechCrunch''. Retrieved 11 October 2017.</ref> Латтнер покинув команду в січні 2020 року та приєднався до [[SiFive]].<ref>[https://www.businesswire.com/news/home/20200127005141/en/Former-Google-and-Tesla-Engineer-Chris-Lattner-to-Lead-SiFive-Platform-Engineering-Team «Former Google and Tesla Engineer Chris Lattner to Lead SiFive Platform Engineering Team»] {{Webarchive|url=https://web.archive.org/web/20210603065838/https://www.businesswire.com/news/home/20200127005141/en/Former-Google-and-Tesla-Engineer-Chris-Lattner-to-Lead-SiFive-Platform-Engineering-Team |date=3 червня 2021 }}. ''www.businesswire.com''. 2020-01-27. Retrieved 2021-04-09</ref>


Робототехнічні дослідження в Google Brain зосереджені здебільшого на вдосконаленні та застосуванні алгоритмів глибокого навчання, які б дозволили роботам виконувати завдання, навчаючись за допомогою власного досвіду, моделювання, людських демонстрацій та/або візуальних уявлень. <ref name=":4">{{Cite journal|last=Zeng|first=A.|last2=Song|first2=S.|last3=Lee|first3=J.|last4=Rodriguez|first4=A.|last5=Funkhouser|first5=T.|date=August 2020|title=TossingBot: Learning to Throw Arbitrary Objects With Residual Physics|journal=IEEE Transactions on Robotics|volume=36|issue=4|pages=1307–1319|doi=10.1109/TRO.2020.2988642|issn=1941-0468|doi-access=free}}</ref> <ref>{{Cite journal|last=Gu|first=S.|last2=Holly|first2=E.|last3=Lillicrap|first3=T.|last4=Levine|first4=S.|date=May 2017|title=Deep reinforcement learning for robotic manipulation with asynchronous off-policy updates|url=https://ieeexplore.ieee.org/document/7989385|journal=2017 IEEE International Conference on Robotics and Automation (ICRA)|pages=3389–3396|arxiv=1610.00633|doi=10.1109/ICRA.2017.7989385|isbn=978-1-5090-4633-1}}</ref> <ref name=":5">{{Cite journal|last=Sermanet|first=P.|last2=Lynch|first2=C.|last3=Chebotar|first3=Y.|last4=Hsu|first4=J.|last5=Jang|first5=E.|last6=Schaal|first6=S.|last7=Levine|first7=S.|last8=Brain|first8=G.|date=May 2018|title=Time-Contrastive Networks: Self-Supervised Learning from Video|url=https://ieeexplore.ieee.org/document/8462891|journal=2018 IEEE International Conference on Robotics and Automation (ICRA)|pages=1134–1141|arxiv=1704.06888|doi=10.1109/ICRA.2018.8462891|isbn=978-1-5386-3081-5}}</ref> <ref name=":6">{{Cite journal|last=Tanwani|first=A. K.|last2=Sermanet|first2=P.|last3=Yan|first3=A.|last4=Anand|first4=R.|last5=Phielipp|first5=M.|last6=Goldberg|first6=K.|date=May 2020|title=Motion2Vec: Semi-Supervised Representation Learning from Surgical Videos|url=https://ieeexplore.ieee.org/document/9197324|journal=2020 IEEE International Conference on Robotics and Automation (ICRA)|pages=2174–2181|arxiv=2006.00545|doi=10.1109/ICRA40945.2020.9197324|isbn=978-1-7281-7395-5}}</ref> Наприклад, дослідники Google Brain показали, що роботи можуть навчитися підіймати та кидати тверді об’єкти у ящики, не бувши попередньо запрограмованим на це, за допомогою експериментування в середовищі. <ref name=":4" /> В іншому проекті дослідники натренували роботів вчитися таким процесам, як виливання рідини з чашки; Роботи навчилися за допомогою відео демонстрацій людей, записаних з різних точок зору. <ref name=":5" />
У 2021 році Google Brain очолюють [[Джефф Дін (програміст)|Джефф Дін]], [[Джефрі Гінтон]] і {{Не перекладено|Зубін Гахрамані|Зубін Гахрамані|en|Zoubin Ghahramani}}. Серед інших членів&nbsp;— Кетрін Хеллер, Пі-Чуан Чанг, Ян Саймон, Жан-Філіпп Верт, Невена Лазіч, Анелія Ангелова, Лукаш Кайзер, Кері Джун Кай, Ерік Брек, Румінг Панг, Карлос Рікельме, Девід Ха.<ref name=":2" /> Самі Бенджо покинув команду у квітні 2021 року<ref>Dave, Jeffrey Dastin, Paresh (2021-04-07). [https://www.reuters.com/article/us-alphabet-google-research-bengio-idUSKBN2BT2JT «Google AI scientist Bengio resigns after colleagues' firings: email»] {{Webarchive|url=https://web.archive.org/web/20210602214140/https://www.reuters.com/article/us-alphabet-google-research-bengio-idUSKBN2BT2JT |date=2 червня 2021 }}. ''Reuters''. Retrieved 2021-04-08</ref>, коли {{Не перекладено|Зобін Гахрамані|Зобін Гахрамані|en|Zoubin Ghahramani}} взяв на себе його обов'язки.


Дослідники Google Brain співпрацюють з іншими компаніями та академічними установами, що досліджують робототехніку. У 2016 році команда Google Brain Team співпрацювала з дослідниками з [[X (Google)|X]] у дослідженні з вивчення координації рук і очей для роботизованого хапання. <ref name=":7">{{Cite journal|last=Levine|first=Sergey|last2=Pastor|first2=Peter|last3=Krizhevsky|first3=Alex|last4=Ibarz|first4=Julian|last5=Quillen|first5=Deirdre|date=2018-04-01|title=Learning hand-eye coordination for robotic grasping with deep learning and large-scale data collection|journal=The International Journal of Robotics Research|language=en|volume=37|issue=4–5|pages=421–436|doi=10.1177/0278364917710318|issn=0278-3649|doi-access=free}}</ref> Їх метод дозволив керувати роботом у реальному часі для хапання нових об’єктів із самокоригуванням.<ref name=":7" /> У 2020 році дослідники з Google Brain, Intel AI Lab і UC Berkeley створили модель штучного інтелекту для роботів для вивчання пов’язаних із хірургією завдань, таких як накладання швів, за допомогою відео справжніх операцій.<ref name=":6">{{Cite journal|last=Tanwani|first=A. K.|last2=Sermanet|first2=P.|last3=Yan|first3=A.|last4=Anand|first4=R.|last5=Phielipp|first5=M.|last6=Goldberg|first6=K.|date=May 2020|title=Motion2Vec: Semi-Supervised Representation Learning from Surgical Videos|url=https://ieeexplore.ieee.org/document/9197324|journal=2020 IEEE International Conference on Robotics and Automation (ICRA)|pages=2174–2181|arxiv=2006.00545|doi=10.1109/ICRA40945.2020.9197324|isbn=978-1-7281-7395-5}}<cite class="citation journal cs1" data-ve-ignore="true" id="CITEREFTanwaniSermanetYanAnand2020">Tanwani, A. K.; Sermanet, P.; Yan, A.; Anand, R.; Phielipp, M.; Goldberg, K. (May 2020). [https://ieeexplore.ieee.org/document/9197324 "Motion2Vec: Semi-Supervised Representation Learning from Surgical Videos"]. ''2020 IEEE International Conference on Robotics and Automation (ICRA)'': 2174–2181. [[ArXiv.org|arXiv]]:<span class="cs1-lock-free" title="Freely accessible">[//arxiv.org/abs/2006.00545 2006.00545]</span>. [[Цифровий ідентифікатор об'єкта|doi]]:[[doi:10.1109/ICRA40945.2020.9197324|10.1109/ICRA40945.2020.9197324]]. [[ISBN]]&nbsp;[[Спеціальний: Книжкові джерела/978-1-7281-7395-5|<bdi>978-1-7281-7395-5</bdi>]]. [[S2CID (ідентифікатор)|S2CID]]&nbsp;[https://api.semanticscholar.org/CorpusID:219176734 219176734].</cite></ref>
Google Research включає Google Brain і базується в [[Маунтін-В'ю]], Каліфорнія. Він також має групи в [[Аккра|Аккрі]], [[Амстердам]]і, [[Атланта|Атланті]], [[Пекін]]і, [[Берлін]]і, [[Кембридж (Массачусетс)|Кембриджі (Массачусетс)]], [[Ізраїль|Ізраїлі]], [[Лос-Анджелес]]і, [[Лондон]]і, [[Монреаль|Монреалі]], [[Мюнхен]]і, [[Нью-Йорк]]у, [[Париж]]і, [[Піттсбург|Піттсбурзі]], [[Принстон]]і, [[Сан-Франциско]], [[Сіетл]]і, [[Токіо]], [[Торонто]], і [[Цюрих]].<ref>[https://careers.google.com/ «Build for Everyone&nbsp;— Google Careers»] {{Webarchive|url=https://web.archive.org/web/20211005232428/https://careers.google.com/ |date=5 жовтня 2021 }}. ''careers.google.com''. Retrieved 2021-04-08.</ref>


=== Інтерактивне розпізнавання мовця за допомогою [[навчання з підкріпленням]] ===
== Проекти ==
У 2020 році команда Google Brain Team та [[Університет Лілль|Університет Лілля]] представили модель автоматичного розпізнавання мовця, яку вони назвали Interactive Speaker Recognition. Модуль ISR розпізнає мовця з заданого списку мовців, лише запитуючи декілька слів, специфічних для користувача. <ref name=":12">{{Cite journal|last=Seurin|first=Mathieu|last2=Strub|first2=Florian|last3=Preux|first3=Philippe|last4=Pietquin|first4=Olivier|date=2020-10-25|title=A Machine of Few Words: Interactive Speaker Recognition with Reinforcement Learning|url=http://dx.doi.org/10.21437/interspeech.2020-2892|journal=Interspeech 2020|location=ISCA|publisher=ISCA|pages=4323–4327|arxiv=2008.03127|doi=10.21437/interspeech.2020-2892}}</ref> Модель можна змінити, щоб була можливість вибрати сегменти мовлення в контексті навчання [[Синтез мовлення|синтезу мовлення]].<ref name=":12" />


=== TensorFlow ===
=== Система шифрування, створена штучним інтелектом ===
[[TensorFlow]] — це бібліотека програмного забезпечення з відкритим вихідним кодом на базі Google Brain, яка дозволяє будь-кому використовувати машинне навчання, надаючи інструменти для тренування власної нейронної мережі.<ref name=":22">{{Cite journal|last1=Helms|first1=Mallory|last2=Ault|first2=Shaun V.|last3=Mao|first3=Guifen|last4=Wang|first4=Jin|date=2018-03-09|title=An Overview of Google Brain and Its Applications|url=https://doi.org/10.1145/3206157.3206175|journal=Proceedings of the 2018 International Conference on Big Data and Education|series=ICBDE '18|location=Honolulu, HI, USA|publisher=Association for Computing Machinery|pages=72–75|doi=10.1145/3206157.3206175|isbn=978-1-4503-6358-7|s2cid=44107806}}</ref> Цей інструмент використовувався фермерами для зменшення кількості ручної праці, необхідної для сортування врожаю, шляхом навчання його набором даних відсортованих людьми зображень.<ref name=":22" />
У жовтні 2016 року Google Brain розробив експеримент, щоб визначити, що нейронні мережі здатні навчитися безпечному [[Шифрування з симетричними ключами|симетричному шифруванню]].<ref name=":3">Zhu, Y.; Vargas, D. V.; Sakurai, K. (November 2018). [https://ieeexplore.ieee.org/document/8590945 «Neural Cryptography Based on the Topology Evolving Neural Networks»] {{Webarchive|url=https://web.archive.org/web/20210602214041/https://ieeexplore.ieee.org/document/8590945 |date=2 червня 2021 }}. ''2018 Sixth International Symposium on Computing and Networking Workshops (CANDARW)'': 472—478. doi:10.1109/CANDARW.2018.00091. ISBN <bdi>978-1-5386-9184-7</bdi>. S2CID 57192497.</ref> У цьому експерименті було створено три нейромережі: Аліса, Боб та Єва.<ref name=":4">Abadi, Martín; Andersen, David G. (2016). «Learning to Protect Communications with Adversarial Neural Cryptography». arXiv:1610.06918. Bibcode:2016arXiv161006918A.</ref> Дотримуючись ідеї [[Генеративна змагальна мережа|генеративної змагальної мережі]], метою експерименту було відправити від Аліси зашифроване повідомлення до Боба, яке Боб міг розшифрувати, але Єва, не могла.<ref name=":4" /> Аліса та Боб мали перевагу над Євою, оскільки в них був ключ, що використовується для шифрування та дешифрування.<ref name=":3" /> Тим самим Google Brain продемонстрував здатність нейронних мереж навчатися безпечному шифруванню.<ref name=":3" />


=== Magenta ===
=== Покращення зображення ===
Magenta – це проект, який використовує Google Brain для створення нової інформації у вигляді мистецтва та музики, а не для класифікації та сортування наявних даних.<ref name=":2">{{Cite journal|last=Helms|first=Mallory|last2=Ault|first2=Shaun V.|last3=Mao|first3=Guifen|last4=Wang|first4=Jin|date=2018-03-09|title=An Overview of Google Brain and Its Applications|url=https://doi.org/10.1145/3206157.3206175|journal=Proceedings of the 2018 International Conference on Big Data and Education|series=ICBDE '18|location=Honolulu, HI, USA|publisher=Association for Computing Machinery|pages=72–75|doi=10.1145/3206157.3206175|isbn=978-1-4503-6358-7}}<cite class="citation journal cs1" data-ve-ignore="true" id="CITEREFHelmsAultMaoWang2018">Helms, Mallory; Ault, Shaun V.; Mao, Guifen; Wang, Jin (2018-03-09). [[doi:10.1145/3206157.3206175|"An Overview of Google Brain and Its Applications"]]. ''Proceedings of the 2018 International Conference on Big Data and Education''. ICBDE '18. Honolulu, HI, USA: Association for Computing Machinery: 72–75. [[Цифровий ідентифікатор об'єкта|doi]]:[[doi:10.1145/3206157.3206175|10.1145/3206157.3206175]]. [[ISBN]]&nbsp;[[Спеціальний: Книжкові джерела/978-1-4503-6358-7|<bdi>978-1-4503-6358-7</bdi>]]. [[S2CID (ідентифікатор)|S2CID]]&nbsp;[https://api.semanticscholar.org/CorpusID:44107806 44107806].</cite></ref> [[TensorFlow]] було оновлено набором інструментів для користувачів, за допомогою яких вони можуть вчити [[нейронні мережі|нейронну мережу]] створенню зображень і музики.<ref name=":2" /> Однак команда з [[Державний університет Валдоста|Університету Валдоста]] виявила, що [[Штучний інтелект|ШІ]] не може досконало відтворювати людські наміри в [[Мистецтво|мистецтві]], подібно до проблем, з якими він стикається у [[Переклад|перекладі]].<ref name=":2" />
У лютому 2017 року Google Brain визначив імовірнісний метод перетворення зображень з роздільною здатністю 8x8 у роздільну здатність 32x32.<ref>Dahl, Ryan; Norouzi, Mohammad; Shlens, Jonathon (2017). «Pixel Recursive Super Resolution». arXiv:1702.00783. Bibcode:2017arXiv170200783D</ref><ref>[https://arstechnica.com/information-technology/2017/02/google-brain-super-resolution-zoom-enhance/ «Google Brain super-resolution image tech makes „zoom, enhance!“ real»] {{Webarchive|url=https://web.archive.org/web/20210713203929/https://arstechnica.com/information-technology/2017/02/google-brain-super-resolution-zoom-enhance/ |date=13 липня 2021 }}. ''arstechnica.co.uk''. 2017-02-07. Retrieved 2017-05-15.</ref>


=== Застосування у медицині ===
== Див. також ==
Можливості сортування зображень Google Brain використовуються, щоб допомогти виявити певні медичні захворювання шляхом пошуку патернів, які лікарі можуть не помітити, щоб поставити діагноз раніше.<ref name=":2">{{Cite journal|last=Helms|first=Mallory|last2=Ault|first2=Shaun V.|last3=Mao|first3=Guifen|last4=Wang|first4=Jin|date=2018-03-09|title=An Overview of Google Brain and Its Applications|url=https://doi.org/10.1145/3206157.3206175|journal=Proceedings of the 2018 International Conference on Big Data and Education|series=ICBDE '18|location=Honolulu, HI, USA|publisher=Association for Computing Machinery|pages=72–75|doi=10.1145/3206157.3206175|isbn=978-1-4503-6358-7}}<cite class="citation journal cs1" data-ve-ignore="true" id="CITEREFHelmsAultMaoWang2018">Helms, Mallory; Ault, Shaun V.; Mao, Guifen; Wang, Jin (2018-03-09). [[doi:10.1145/3206157.3206175|"An Overview of Google Brain and Its Applications"]]. ''Proceedings of the 2018 International Conference on Big Data and Education''. ICBDE '18. Honolulu, HI, USA: Association for Computing Machinery: 72–75. [[Цифровий ідентифікатор об'єкта|doi]]:[[doi:10.1145/3206157.3206175|10.1145/3206157.3206175]]. [[ISBN]]&nbsp;[[Спеціальний: Книжкові джерела/978-1-4503-6358-7|<bdi>978-1-4503-6358-7</bdi>]]. [[S2CID (ідентифікатор)|S2CID]]&nbsp;[https://api.semanticscholar.org/CorpusID:44107806 44107806].</cite></ref> Під час скринінгу на рак молочної залози було виявлено, що цей метод на 75% рідше ставить невірний позитивний діагноз, ніж лікарі-людини, яким потрібно більше часу, щоб переглянути кожну фотографію.<ref name=":2" /> Через дуже специфічну підготовку нейронної мережі для виконання одного завдання, вона не може визначити інші недуги, присутні на фотографії, які людина може легко помітити.<ref name=":2" />


=== Інші продукти Google ===
* [[Штучний інтелект]]
Технологія проектів Google Brain наразі використовується в інших продуктах Google, таких як система [[розпізнавання мовлення]] [[Android|операційної системи Android]], пошук фотографій у [[Google Фото|Google Photos]], [https://blog.google/products/gmail/save-time-with-smart-reply-in-gmail/ розумна відповідь] у [[Gmail]] та рекомендації відео на [[YouTube]].<ref>{{Cite news|title=How Google Retooled Android With Help From Your Brain|language=en-us|work=Wired|url=https://www.wired.com/2013/02/android-neural-network/|accessdate=2021-04-08|issn=1059-1028}}</ref><ref>{{Cite web|title=Google Open-Sources The Machine Learning Tech Behind Google Photos Search, Smart Reply And More|url=https://social.techcrunch.com/2015/11/09/google-open-sources-the-machine-learning-tech-behind-google-photos-search-smart-reply-and-more/|accessdate=2021-04-08|website=TechCrunch|language=en-US}}</ref><ref>{{Cite web|date=May 18, 2015|title=This Is Google's Plan to Save YouTube|url=http://time.com/3882422/google-youtube/|website=[[Time (magazine)|Time]]}}</ref>
* [[Глибинне навчання]]
* {{Не перекладено|Глосарій штучного інтелекту|Глосарій штучного інтелекту|en|Glossary of artificial intelligence}}
* {{Не перекладено|Лабораторія квантового штучного інтелекту|Лабораторія квантового штучного інтелекту|en|Quantum Artificial Intelligence Lab}}&nbsp;— запущена Google у співпраці з [[НАСА|NASA]] і Асоціацією космічних досліджень університетів
* [[Ноогенез]]
* [[TensorFlow]]
* {{Не перекладено|Тимніт Гебру|Тимніт Гебру|en|Timnit Gebru}}
* {{Не перекладено|Самі Бенджо|Самі Бенджо|en|Samy Bengio}}
* [[Трансформер (модель машинного навчання)]]


== Примітки ==
== Прийом ==
Google Brain отримав висвітлення в ''[[Wired|Wired Magazine]]'', <ref name="wired-kurzweil">{{Cite magazine|last=Levy|first=Steven|author-link=Steven Levy|date=April 25, 2013|title=How Ray Kurzweil Will Help Google Make the Ultimate AI Brain|url=https://www.wired.com/business/2013/04/kurzweil-google-ai/|access-date=February 11, 2014|magazine=Wired}}</ref> <ref name="wired-2014">{{Cite magazine|last=Wohlsen|first=Marcus|date=January 27, 2014|title=Google's Grand Plan to Make Your Brain Irrelevant|url=https://www.wired.com/business/2014/01/google-buying-way-making-brain-irrelevant/|access-date=February 11, 2014|magazine=Wired}}</ref> <ref name="wired-ng">{{Cite magazine|last=Hernandez|first=Daniela|date=May 7, 2013|title=The Man Behind the Google Brain: Andrew Ng and the Quest for the New AI|url=https://www.wired.com/wiredenterprise/2013/05/neuro-artificial-intelligence/all/|access-date=February 11, 2014|magazine=Wired}}</ref> [[National Public Radio]], <ref name="npr-cats">{{Cite web|url=https://www.npr.org/2012/06/26/155792609/a-massive-google-network-learns-to-identify|title=A Massive Google Network Learns To Identify — Cats|publisher=[[National Public Radio]]|date=June 26, 2012|accessdate=February 11, 2014}}</ref> і [[Велика думка|Big Think]].<ref name=":8">{{Cite web|url=http://bigthink.com/big-think-tv/ray-kurzweil-and-the-brains-behind-the-google-brain|title=Ray Kurzweil and the Brains Behind the Google Brain|publisher=[[Big Think]]|date=December 8, 2013|accessdate=February 11, 2014}}</ref> Ці статті містили інтерв’ю з ключовими членами команди Реєм Курцвейлом та Ендрю Ином і зосереджені на поясненнях цілей та застосуваннях проекту.<ref name="wired-kurzweil" /><ref name="npr-cats" /><ref name=":8" />
{{примітки}}


=== Дискусія ===
{{сирий переклад|дата=червень 2021}}
У грудні 2020 року спеціалістка з питань етики ШI [[Тімніт Гебру]] залишила Google.<ref name=":9">{{Cite web|title=We read the paper that forced Timnit Gebru out of Google. Here's what it says.|url=https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/|accessdate=2021-04-08|website=MIT Technology Review|language=en}}</ref> Причиною звільнення стала її відмова відкликати статтю під назвою «Про небезпеку стохастичних папуг: чи можуть мовні моделі бути занадто великими?» <ref name=":9" /> У цій статті досліджуються потенційні ризики розвитку штучного інтелекту, такого як Google Brain, зокрема їхній вплив на навколишнє середовище, упередження в навчальних даних та здатність обманювати громадськість.<ref name=":9" /><ref>{{Cite journal|last=Bender|first=Emily M.|last2=Gebru|first2=Timnit|last3=McMillan-Major|first3=Angelina|last4=Shmitchell|first4=Shmargaret|date=2021-03-03|title=On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜|journal=Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency|language=en|location=Virtual Event Canada|publisher=ACM|pages=610–623|doi=10.1145/3442188.3445922|isbn=978-1-4503-8309-7|doi-access=free}}</ref> З проханням відкликати статтю звернулася Меган Качолія, віцепрезидент Google Brain.<ref name=":10">{{Cite web|last=Schiffer|first=Zoe|date=2021-02-19|title=Google fires second AI ethics researcher following internal investigation|url=https://www.theverge.com/2021/2/19/22292011/google-second-ethical-ai-researcher-fired|accessdate=2021-04-08|website=The Verge|language=en}}</ref> Станом на квітень 2021 року майже 7000 нинішніх або колишніх співробітників Google і прихильників галузі підписали відкритий лист, в якому звинувачують Google у «цензурі досліджень» та засуджують поводження з компанії з Гебру.<ref>{{Cite web|last=Change|first=Google Walkout For Real|date=2020-12-15|title=Standing with Dr. Timnit Gebru — #ISupportTimnit #BelieveBlackWomen|url=https://googlewalkout.medium.com/standing-with-dr-timnit-gebru-isupporttimnit-believeblackwomen-6dadc300d382|accessdate=2021-04-08|website=Medium|language=en}}</ref>
{{перекласти|en|дата=червень 2021}}

{{Диференційовні обчислення}}


У лютому 2021 року Google звільнив Маргарет Мітчелл, одну з керівників команди з етики в галузі штучного інтелекту.<ref name=":10">{{Cite web|last=Schiffer|first=Zoe|date=2021-02-19|title=Google fires second AI ethics researcher following internal investigation|url=https://www.theverge.com/2021/2/19/22292011/google-second-ethical-ai-researcher-fired|accessdate=2021-04-08|website=The Verge|language=en}}<cite class="citation web cs1" data-ve-ignore="true" id="CITEREFSchiffer2021">Schiffer, Zoe (2021-02-19). [https://www.theverge.com/2021/2/19/22292011/google-second-ethical-ai-researcher-fired "Google fires second AI ethics researcher following internal investigation"]. ''The Verge''<span class="reference-accessdate">. Retrieved <span class="nowrap">2021-04-08</span></span>.</cite></ref> У заяві компанії стверджується, що Мітчелл порушила політику компанії, використовуючи автоматизовані інструменти для пошуку підтримки для Gebru.<ref name=":10" /> У тому ж місяці інженери поза командою з етики почали звільнятися, посилаючись на «неправомірне» звільнення Gebru як причину. <ref>{{Cite news|last=Dave|first=Jeffrey Dastin, Paresh|date=2021-02-04|title=Two Google engineers resign over firing of AI ethics researcher Timnit Gebru|language=en|work=Reuters|url=https://www.reuters.com/article/us-alphabet-resignations-idUSKBN2A4090|accessdate=2021-04-08}}</ref> У квітні 2021 року співзасновник Google Brain [[Самі Бенджіо|Семі Бенджіо]] оголосив про свою відставку з компанії.<ref name=":11">{{Cite news|last=Dave|first=Jeffrey Dastin, Paresh|date=2021-04-07|title=Google AI scientist Bengio resigns after colleagues' firings: email|language=en|work=Reuters|url=https://www.reuters.com/article/us-alphabet-google-research-bengio-idUSKBN2BT2JT|accessdate=2021-04-08}}</ref> Попри те, що він був менеджером Гебру, Бенджіо не був повідомлений про її звільнення, і він опублікував пост в Інтернеті на підтримку і неї, і Мітчелл.<ref name=":11" /> Хоча пост Бенджіо зосереджувалося на особистісному зростанні як причині його відходу, анонімні джерела вказали Reuters, що негаразди в команді з етики ШІ зіграли певну роль у його міркуваннях.<ref name=":11" />
[[Категорія:Google]]
[[Категорія:Прикладне машинне навчання]]
[[Категорія:Прикладне машинне навчання]]
[[Категорія:Google|Brain]]

Версія за 17:16, 4 травня 2022

Покращення зображень

У лютому 2017 року Google Brain визначив імовірнісний метод для перетворення зображень з роздільною здатністю 8x8 в роздільну здатність 32x32. [1] [2] Метод, заснований на імовірнісній моделі, що вже існує, яка називається pixelCNN, для генерування трансльованих пікселів. [3] [4]

Запропоноване програмне забезпечення використовує дві нейронні мережі для апроксимації піксельного складу зображень, які транслюються. [2] [5] Перша мережа, відома як «мережа кондиціонування», зменшує розміри зображень з високою роздільною здатністю до 8x8 і намагається створити відображення з оригінального зображення 8x8 до цих зображень з вищою роздільною здатністю. [2] Інша мережа, відома як «перша мережа», використовує відображення з попередньої мережі, щоб додати більше деталей до вихідного зображення. [2] Отримане трансльоване зображення – це не те саме зображення у вищій роздільній здатності, а скоріше оцінка з роздільною здатністю 32x32, зроблена на основі інших існуючих зображень із високою роздільною здатністю. [2] Результати Google Brain вказують на можливість нейронних мереж покращувати зображення. [6]

Google Перекладач

Команда Google Brain внесла свій внесок у проект Google Translate, використавши нову систему глибокого навчання, яка поєднує штучні нейронні мережі з величезними базами даних багатомовних текстів. [7] У вересні 2016 року було запущено Google Neural Machine Translation (GNMT), наскрізну систему навчання, яка може вчитися на великій кількості прикладів. [7] Раніше підхід Google Translate на основі фразового машинного перекладу (PBMT) статистично аналізував слово за словом і намагався знайти відповідні слова іншими мовами, не враховуючи навколишні фрази в реченні. [8] Але замість того, щоб вибирати заміну для кожного окремого слова бажаною мовою, GNMT оцінює сегменти слів у контексті решти речення, щоб вибрати більш точні заміни. [9] У порівнянні зі старішими моделями PBMT, модель GNMT набрала 24% покращення схожості з перекладом, який зробила людина, при цьому кількість помилок зменшилася на 60%. [9] [7] GNMT також продемонстрував значне покращення для свідомо складних перекладів, таких як переклад китайської мови на англійську. [7]

Хоча запровадження GNMT підвищило якість перекладів Google Translate для пілотних мов, було дуже важко створити такі покращення для всіх його 103 мов. Вирішуючи цю проблему, команда Google Brain Team змогла розробити багатомовну систему GNMT, яка розширила попередню, забезпечивши переклади між кількома мовами. Крім того, вона дозволяє здійснювати переклади Zero-Shot, що є перекладами між двома мовами, які система ніколи раніше явно не бачила. [10] Google оголосила, що Google Translate тепер також може перекладати без транскрибування, використовуючи нейронні мережі. Це означає, що можливо перекласти мовлення однією мовою безпосередньо в текст іншою мовою, попередньо не транскрибуючи її в текст. За словами дослідників Google Brain, цього проміжного кроку можна уникнути за допомогою нейронних мереж. Щоб система засвоїла це, вони ознайомили її з багатогодинним аудіо іспанською мовою разом із відповідним англійським текстом. Різні шари нейронних мереж, що копіюють людський мозок, змогли зв’язати відповідні частини і згодом маніпулювати звуковою формою, поки вона не була перетворена в англійський текст. [11] Іншим недоліком моделі GNMT є те, що час перекладу збільшується в геометричній прогресії разом із кількістю слів у реченні. [9] Це змусило команду Google Brain Team додати ще 2000 процесорів, щоб гарантувати, що новий процес перекладу буде швидким і надійним. [8]

Робототехніка

Прагнучи покращити традиційні алгоритми керування робототехнікою, де нові навички робота потрібно програмувати вручну, дослідники з робототехніки з Google Brain розробляють методи машинного навчання, які б дозволили роботам опановувати нові навички самостійно. [12] Вони також намагаються розробити способи обміну інформацією між роботами, щоб роботи могли вчитися один у одного під час процесу навчання, також відомого як хмарна робототехніка.[13] Як результат, Google запустила платформу Google Cloud Robotics Platform для розробників у 2019 році, намагаючись об’єднати робототехніку, AI та хмару, щоб забезпечити ефективну автоматизацію роботи через підключених до хмари роботів, які співпрацюють один з одним.[13]

Робототехнічні дослідження в Google Brain зосереджені здебільшого на вдосконаленні та застосуванні алгоритмів глибокого навчання, які б дозволили роботам виконувати завдання, навчаючись за допомогою власного досвіду, моделювання, людських демонстрацій та/або візуальних уявлень. [14] [15] [16] [17] Наприклад, дослідники Google Brain показали, що роботи можуть навчитися підіймати та кидати тверді об’єкти у ящики, не бувши попередньо запрограмованим на це, за допомогою експериментування в середовищі. [14] В іншому проекті дослідники натренували роботів вчитися таким процесам, як виливання рідини з чашки; Роботи навчилися за допомогою відео демонстрацій людей, записаних з різних точок зору. [16]

Дослідники Google Brain співпрацюють з іншими компаніями та академічними установами, що досліджують робототехніку. У 2016 році команда Google Brain Team співпрацювала з дослідниками з X у дослідженні з вивчення координації рук і очей для роботизованого хапання. [18] Їх метод дозволив керувати роботом у реальному часі для хапання нових об’єктів із самокоригуванням.[18] У 2020 році дослідники з Google Brain, Intel AI Lab і UC Berkeley створили модель штучного інтелекту для роботів для вивчання пов’язаних із хірургією завдань, таких як накладання швів, за допомогою відео справжніх операцій.[17]

Інтерактивне розпізнавання мовця за допомогою навчання з підкріпленням

У 2020 році команда Google Brain Team та Університет Лілля представили модель автоматичного розпізнавання мовця, яку вони назвали Interactive Speaker Recognition. Модуль ISR розпізнає мовця з заданого списку мовців, лише запитуючи декілька слів, специфічних для користувача. [19] Модель можна змінити, щоб була можливість вибрати сегменти мовлення в контексті навчання синтезу мовлення.[19]

TensorFlow

TensorFlow — це бібліотека програмного забезпечення з відкритим вихідним кодом на базі Google Brain, яка дозволяє будь-кому використовувати машинне навчання, надаючи інструменти для тренування власної нейронної мережі.[20] Цей інструмент використовувався фермерами для зменшення кількості ручної праці, необхідної для сортування врожаю, шляхом навчання його набором даних відсортованих людьми зображень.[20]

Magenta

Magenta – це проект, який використовує Google Brain для створення нової інформації у вигляді мистецтва та музики, а не для класифікації та сортування наявних даних.[9] TensorFlow було оновлено набором інструментів для користувачів, за допомогою яких вони можуть вчити нейронну мережу створенню зображень і музики.[9] Однак команда з Університету Валдоста виявила, що ШІ не може досконало відтворювати людські наміри в мистецтві, подібно до проблем, з якими він стикається у перекладі.[9]

Застосування у медицині

Можливості сортування зображень Google Brain використовуються, щоб допомогти виявити певні медичні захворювання шляхом пошуку патернів, які лікарі можуть не помітити, щоб поставити діагноз раніше.[9] Під час скринінгу на рак молочної залози було виявлено, що цей метод на 75% рідше ставить невірний позитивний діагноз, ніж лікарі-людини, яким потрібно більше часу, щоб переглянути кожну фотографію.[9] Через дуже специфічну підготовку нейронної мережі для виконання одного завдання, вона не може визначити інші недуги, присутні на фотографії, які людина може легко помітити.[9]

Інші продукти Google

Технологія проектів Google Brain наразі використовується в інших продуктах Google, таких як система розпізнавання мовлення операційної системи Android, пошук фотографій у Google Photos, розумна відповідь у Gmail та рекомендації відео на YouTube.[21][22][23]

Прийом

Google Brain отримав висвітлення в Wired Magazine, [24] [25] [26] National Public Radio, [27] і Big Think.[28] Ці статті містили інтерв’ю з ключовими членами команди Реєм Курцвейлом та Ендрю Ином і зосереджені на поясненнях цілей та застосуваннях проекту.[24][27][28]

Дискусія

У грудні 2020 року спеціалістка з питань етики ШI Тімніт Гебру залишила Google.[29] Причиною звільнення стала її відмова відкликати статтю під назвою «Про небезпеку стохастичних папуг: чи можуть мовні моделі бути занадто великими?» [29] У цій статті досліджуються потенційні ризики розвитку штучного інтелекту, такого як Google Brain, зокрема їхній вплив на навколишнє середовище, упередження в навчальних даних та здатність обманювати громадськість.[29][30] З проханням відкликати статтю звернулася Меган Качолія, віцепрезидент Google Brain.[31] Станом на квітень 2021 року майже 7000 нинішніх або колишніх співробітників Google і прихильників галузі підписали відкритий лист, в якому звинувачують Google у «цензурі досліджень» та засуджують поводження з компанії з Гебру.[32]

У лютому 2021 року Google звільнив Маргарет Мітчелл, одну з керівників команди з етики в галузі штучного інтелекту.[31] У заяві компанії стверджується, що Мітчелл порушила політику компанії, використовуючи автоматизовані інструменти для пошуку підтримки для Gebru.[31] У тому ж місяці інженери поза командою з етики почали звільнятися, посилаючись на «неправомірне» звільнення Gebru як причину. [33] У квітні 2021 року співзасновник Google Brain Семі Бенджіо оголосив про свою відставку з компанії.[34] Попри те, що він був менеджером Гебру, Бенджіо не був повідомлений про її звільнення, і він опублікував пост в Інтернеті на підтримку і неї, і Мітчелл.[34] Хоча пост Бенджіо зосереджувалося на особистісному зростанні як причині його відходу, анонімні джерела вказали Reuters, що негаразди в команді з етики ШІ зіграли певну роль у його міркуваннях.[34]

  1. Dahl, Ryan; Norouzi, Mohammad; Shlens, Jonathon (2017). Pixel Recursive Super Resolution. arXiv:1702.00783. Bibcode:2017arXiv170200783D.
  2. а б в г д Google Brain super-resolution image tech makes "zoom, enhance!" real. arstechnica.co.uk. 7 лютого 2017. Процитовано 15 травня 2017."Google Brain super-resolution image tech makes "zoom, enhance!" real". arstechnica.co.uk. 2017-02-07. Retrieved 2017-05-15. Помилка цитування: Некоректний тег <ref>; назва «:14» визначена кілька разів з різним вмістом
  3. Bulat, Adrian; Yang, Jing; Tzimiropoulos, Georgios (2018), To Learn Image Super-Resolution, Use a GAN to Learn How to Do Image Degradation First, Computer Vision – ECCV 2018, Cham: Springer International Publishing: 187—202, arXiv:1807.11458, doi:10.1007/978-3-030-01231-1_12, ISBN 978-3-030-01230-4, процитовано 9 квітня 2021
  4. Oord, Aaron Van; Kalchbrenner, Nal; Kavukcuoglu, Koray (11 червня 2016). Pixel Recurrent Neural Networks. International Conference on Machine Learning (англ.). PMLR: 1747—1756. arXiv:1601.06759.
  5. Google uses AI to sharpen low-res images. engadget.com. Процитовано 15 травня 2017.
  6. Google just made 'zoom and enhance' a reality -- kinda. cnet.com. Процитовано 15 травня 2017.
  7. а б в г Castelvecchi, Davide (2016). Deep learning boosts Google Translate tool. Nature News (англ.). doi:10.1038/nature.2016.20696.
  8. а б Lewis-Kraus, Gideon (14 грудня 2016). The Great A.I. Awakening. The New York Times (амер.). ISSN 0362-4331. Процитовано 8 квітня 2021. Помилка цитування: Некоректний тег <ref>; назва «:1» визначена кілька разів з різним вмістом
  9. а б в г д е ж и к Helms, Mallory; Ault, Shaun V.; Mao, Guifen; Wang, Jin (9 березня 2018). An Overview of Google Brain and Its Applications. Proceedings of the 2018 International Conference on Big Data and Education. ICBDE '18. Honolulu, HI, USA: Association for Computing Machinery: 72—75. doi:10.1145/3206157.3206175. ISBN 978-1-4503-6358-7. Помилка цитування: Некоректний тег <ref>; назва «:2» визначена кілька разів з різним вмістом
  10. Johnson, Melvin; Schuster, Mike; Le, Quoc V.; Krikun, Maxim; Wu, Yonghui; Chen, Zhifeng; Thorat, Nikhil; Viégas, Fernanda; Wattenberg, Martin (1 жовтня 2017). Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation. Transactions of the Association for Computational Linguistics. 5: 339—351. doi:10.1162/tacl_a_00065. ISSN 2307-387X.
  11. Reynolds, Matt. Google uses neural networks to translate without transcribing. New Scientist. Процитовано 15 May 2017.
  12. Metz, Cade; Dawson, Brian; Felling, Meg (26 березня 2019). Inside Google's Rebooted Robotics Program. The New York Times (амер.). ISSN 0362-4331. Процитовано 8 квітня 2021.
  13. а б Google Cloud Robotics Platform coming to developers in 2019. The Robot Report (амер.). 24 жовтня 2018. Процитовано 8 квітня 2021.
  14. а б Zeng, A.; Song, S.; Lee, J.; Rodriguez, A.; Funkhouser, T. (August 2020). TossingBot: Learning to Throw Arbitrary Objects With Residual Physics. IEEE Transactions on Robotics. 36 (4): 1307—1319. doi:10.1109/TRO.2020.2988642. ISSN 1941-0468.
  15. Gu, S.; Holly, E.; Lillicrap, T.; Levine, S. (May 2017). Deep reinforcement learning for robotic manipulation with asynchronous off-policy updates. 2017 IEEE International Conference on Robotics and Automation (ICRA): 3389—3396. arXiv:1610.00633. doi:10.1109/ICRA.2017.7989385. ISBN 978-1-5090-4633-1.
  16. а б Sermanet, P.; Lynch, C.; Chebotar, Y.; Hsu, J.; Jang, E.; Schaal, S.; Levine, S.; Brain, G. (May 2018). Time-Contrastive Networks: Self-Supervised Learning from Video. 2018 IEEE International Conference on Robotics and Automation (ICRA): 1134—1141. arXiv:1704.06888. doi:10.1109/ICRA.2018.8462891. ISBN 978-1-5386-3081-5.
  17. а б Tanwani, A. K.; Sermanet, P.; Yan, A.; Anand, R.; Phielipp, M.; Goldberg, K. (May 2020). Motion2Vec: Semi-Supervised Representation Learning from Surgical Videos. 2020 IEEE International Conference on Robotics and Automation (ICRA): 2174—2181. arXiv:2006.00545. doi:10.1109/ICRA40945.2020.9197324. ISBN 978-1-7281-7395-5. Помилка цитування: Некоректний тег <ref>; назва «:6» визначена кілька разів з різним вмістом
  18. а б Levine, Sergey; Pastor, Peter; Krizhevsky, Alex; Ibarz, Julian; Quillen, Deirdre (1 квітня 2018). Learning hand-eye coordination for robotic grasping with deep learning and large-scale data collection. The International Journal of Robotics Research (англ.). 37 (4–5): 421—436. doi:10.1177/0278364917710318. ISSN 0278-3649.
  19. а б Seurin, Mathieu; Strub, Florian; Preux, Philippe; Pietquin, Olivier (25 жовтня 2020). A Machine of Few Words: Interactive Speaker Recognition with Reinforcement Learning. Interspeech 2020. ISCA: ISCA: 4323—4327. arXiv:2008.03127. doi:10.21437/interspeech.2020-2892.
  20. а б Helms, Mallory; Ault, Shaun V.; Mao, Guifen; Wang, Jin (9 березня 2018). An Overview of Google Brain and Its Applications. Proceedings of the 2018 International Conference on Big Data and Education. ICBDE '18. Honolulu, HI, USA: Association for Computing Machinery: 72—75. doi:10.1145/3206157.3206175. ISBN 978-1-4503-6358-7. S2CID 44107806.
  21. How Google Retooled Android With Help From Your Brain. Wired (en-us) . ISSN 1059-1028. Процитовано 8 квітня 2021.
  22. Google Open-Sources The Machine Learning Tech Behind Google Photos Search, Smart Reply And More. TechCrunch (амер.). Процитовано 8 квітня 2021.
  23. This Is Google's Plan to Save YouTube. Time. 18 травня 2015.
  24. а б Levy, Steven (25 квітня 2013). How Ray Kurzweil Will Help Google Make the Ultimate AI Brain. Wired. Процитовано 11 лютого 2014.
  25. Wohlsen, Marcus (27 січня 2014). Google's Grand Plan to Make Your Brain Irrelevant. Wired. Процитовано 11 лютого 2014.
  26. Hernandez, Daniela (7 травня 2013). The Man Behind the Google Brain: Andrew Ng and the Quest for the New AI. Wired. Процитовано 11 лютого 2014.
  27. а б A Massive Google Network Learns To Identify — Cats. National Public Radio. 26 червня 2012. Процитовано 11 лютого 2014.
  28. а б Ray Kurzweil and the Brains Behind the Google Brain. Big Think. 8 грудня 2013. Процитовано 11 лютого 2014.
  29. а б в We read the paper that forced Timnit Gebru out of Google. Here's what it says. MIT Technology Review (англ.). Процитовано 8 квітня 2021.
  30. Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (3 березня 2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (англ.). Virtual Event Canada: ACM: 610—623. doi:10.1145/3442188.3445922. ISBN 978-1-4503-8309-7.
  31. а б в Schiffer, Zoe (19 лютого 2021). Google fires second AI ethics researcher following internal investigation. The Verge (англ.). Процитовано 8 квітня 2021. Помилка цитування: Некоректний тег <ref>; назва «:10» визначена кілька разів з різним вмістом
  32. Change, Google Walkout For Real (15 грудня 2020). Standing with Dr. Timnit Gebru — #ISupportTimnit #BelieveBlackWomen. Medium (англ.). Процитовано 8 квітня 2021.
  33. Dave, Jeffrey Dastin, Paresh (4 лютого 2021). Two Google engineers resign over firing of AI ethics researcher Timnit Gebru. Reuters (англ.). Процитовано 8 квітня 2021.
  34. а б в Dave, Jeffrey Dastin, Paresh (7 квітня 2021). Google AI scientist Bengio resigns after colleagues' firings: email. Reuters (англ.). Процитовано 8 квітня 2021.