Microsoft получила патент на преобразование вас в чат-бота

Иллюстрация к статье под названием Microsoft, запатентованной для преобразования вас в чат-бота.

Фото: Стэн Хонда (Getty Images)

Что, если самый важный показатель ваших жизненных усилий не имеет ничего общего с вашим опытом, а скорее просто вашим непреднамеренным созданием реалистичной цифровой копии самого себя, образца древнего человека, который развлекал людей в 4500 году, спустя много времени после того, как вы оставили этот смертоносный файл? Это наименее пугающий вопрос, поднятый Microsoft недавно выданным патентом на одного чат-бота.

Заметил это раньше Независимый, Управление по патентам и товарным знакам США заверило Gizmodo по электронной почте, что Microsoft еще не разрешено производить, использовать или продавать технологию, просто чтобы помешать другим делать это. Заявка на патент была подана в 2017 году, но одобрена в прошлом месяце.

Чат-бот по умолчанию, которым вы являетесь (визуализировано Подробно здесь) О «социальных данных», которые включают публичные сообщения, личные сообщения, аудиозаписи и видео. Он может принимать двухмерную или трехмерную форму. Это может быть «сущность в прошлом или настоящем»; «Друг, родственник, знакомый, [ah!] «Знаменитый персонаж, вымышленный персонаж, историческая личность», зловещая вещь, «случайная сущность». (Последний из них, как мы можем догадаться, мог бы быть аргументированной версией фотореалистичной библиотеки изображений, созданной машиной. ThisPersonDoesNotExistТехнологии могут позволить вам зарегистрироваться на «определенном этапе жизни» для общения с молодыми людьми в будущем.

Лично мне нравится, что мой чат-бот будет бесполезен из-за моего ограниченного текстового словаря («омг», «боже», «омг хахаха»), но мозги в Microsoft учли это. Чат-бот может генерировать мнения, которых у вас нет, и отвечать на вопросы, которые вам ранее не задавали. Или, говоря словами Microsoft, «одно или несколько хранилищ данных чата и / или API могут использоваться для ответа на диалоги пользователя и / или вопросы, для которых данные социальных сетей не предоставляют данных». Комментарий-заполнитель может быть угадан путем краудсорсинга данных от людей с совпадающими интересами и мнениями или демографической информации, такой как пол, образование, семейное положение и уровень дохода. Он может представить ваше мнение по вопросу, основанное на «восприятии событий». «Психографические данные» есть в списке.

Короче говоря, мы смотрим на монстра машинного обучения Франкенштейна, воскрешающего мертвых, без всяких ограничений собирая чрезвычайно личные данные.

«Это страшно», – сказала Дженнифер Ротман, профессор права Пенсильванского университета и автор книги. Право на гласность: новое представление о конфиденциальности для публичного мира Он сообщил Gizmodo по электронной почте. Если есть какие-то заверения, такой проект кажется юридической мукой. Она ожидала, что такая технология может вызвать споры о праве на неприкосновенность частной жизни, праве на гласность, клевету, искажение фактов, нарушение прав на товарный знак, нарушение авторских прав и ложное одобрение, «и это лишь некоторые из них», – сказала она. (Арнольд Шварценеггер нанес на карту территорию, используя Эта голова.)

Она продолжила:

Это также может нарушать законы о биометрической конфиденциальности в штатах, таких как Иллинойс, где есть эти законы. Если предположить, что сбор и использование данных допустимы и что люди определенно решат создать чат-бота по своему собственному образу, технология все равно вызовет опасения, если эти роботы не будут четко идентифицированы как самозванцы. Можно также представить себе ряд технологических злоупотреблений, подобных тому, который мы наблюдаем с дипфейками – скорее всего, не то, что Microsoft планирует, но, тем не менее, может ожидать. Замаскированные, но неавторизованные чат-боты могут создать проблемы для национальной безопасности, если, например, чат-бот говорит от имени президента. И можно было представить, что неавторизованные чат-боты знаменитостей могут воспроизводиться способами, которые могут быть сексуальной или коммерческой эксплуатацией.

Ротман отметил, что, хотя у нас есть реалистичные куклы (например, дипфейки), это первый обнаруженный патент, сочетающий эту технологию с данными, собранными через социальные сети. Есть несколько способов, которыми Microsoft может смягчить опасения с разной степенью реализма и явных заявлений об отказе от ответственности. По ее словам, такая персонификация, как «Газета Клиппи», может помочь.

Неясно, какой уровень согласия требуется для сбора достаточного количества данных даже для крупнейшего бизнеса в области цифрового воска, и Microsoft не поделилась потенциальными руководящими принципами пользовательского соглашения. Но дополнительные потенциальные законы, регулирующие сбор данных (Закон о конфиденциальности потребителей Калифорнии, Общие правила защиты данных Европейского союза) могут стать ключом к созданию чат-ботов. С одной стороны, Clearview AI, которая известна тем, что предоставляет программное обеспечение для распознавания лиц правоохранительным органам и частным компаниям, в настоящее время судится за право монетизировать свой склад с Миллиарды аватаров Взято из общедоступных профилей в социальных сетях без согласия пользователей.

Лори Эндрюс, поверенный, который помогал составить руководство по использованию биотехнологии, Я представил себе армию злобных близнецов-изгоев. Она сказала: «Если бы я баллотировалась на пост президента, чат-бот мог бы сказать что-нибудь расистское, как если бы это был я, и уменьшить мои шансы на выборах». “Чат-бот может получить доступ к различным финансовым счетам или сбросить мои пароли (на основе совокупной информации, такой как имя питомца или девичья фамилия матери, которую часто можно найти в социальных сетях). Человек может быть введен в заблуждение или даже причинен вред, если он обратится к своему терапевту. Двухнедельный отпуск, но программа автоматического общения в чате, имитирующая терапевта, продолжала предоставлять услуги и выставлять счета без ведома пациента о переключателе.

Надеюсь, это будущее никогда не пройдет мимо, и Microsoft признала, что эта технология устрашающая. Когда его спросили о комментарии, представитель направил Gizmodo на Твитнуть От Тима О’Брайена, генерального менеджера программ искусственного интеллекта в Microsoft. «Я смотрю на это – дата внедрения (апрель 2017 года) предшествует проверкам этики ИИ, которые мы проводим сегодня (я сижу на панели), и я не знаю ни одного плана строительства / доставки (и да, это раздражает)».

READ  Google Pixel 4A 5G owners are reporting issues with their touchscreens

Maksim Antonov

Поклонник музыки. Абсолютный любитель социальных сетей. Специалист по путешествиям.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *