Правила google поиска в отношении контента, созданного искусственным интеллектом

Наши меры наказания

— Сначала связываемся с владельцем ресурса, где был обнаружен наш контент и стараемся мирно уладить ситуацию. Попадаются адекватные и понимающие люди, приносящие извинения и сразу удаляющие скопированную статью. Вопрос – закрывается.

— Если письменное предупреждение не срабатывает с первого раза, так уж и быть, повторяем просьбу.

— В случае полного игнора или отсутствия действий с их стороны – связываемся либо с хостинг-провайдером, либо пишем в тех.поддержку поисковиков. Стараемся до такого не доводить, т.к. ничего кроме наложенного фильтра и бана им больше не светит. А как вы знаете, из под фильтра практически не реально выбраться, сайт можно просто закрывать.

     Что ж, спасибо вам за внимание

Надеемся, что теперь вы тоже сможете отследить воровство контента (с помощью, Google Alerts, например) и мирно договариваться со своими последователями Ну а мы пошли Андрюшку в рейс собирать и… делать одно важное дело, о котором, в случае успеха, мы обязательно расскажем в наших следующих статьях

Что говорят

Большинство интернет-пользователей обратили внимание не на фальшь на страницах популярных блогеров, а на то, как легко можно отследить человека

Депортер подчеркнул, что не собирался нарушать ничью конфиденциальность и это всего лишь художественный эксперимент. Так он хотел заставить людей задуматься об «опасности новых технологий».
Исследователь из Даремского университета в Англии Марианн Харди оценила задумку художника

Проект, по ее словам, подчеркивает то, насколько легкомысленной может быть цифровая культура и как вся креативность сводится просто к возможностям смартфона.
Некоторые обеспокоились самим существованием такой технологии, заявив, что Депорту не следовало ее создавать.
Пользователь, также занимающийся разработкой ПО, обратил внимание, что то же самое можно сделать не ради искусства, а просто ради денег, например, для какой-нибудь крупной ИТ-компании, которая собирает информацию о людях для лучшего таргетирования рекламы.
Франческа Собанде из Кардиффского университета отметила, что подобные публичные эксперименты с использованием ИИ и камер видеонаблюдения «небезобидны» и могут навредить людям, которых распознал алгоритм.
Один из тех, кто оказался в «объективе» Депортера, заявил, что тот не имеет права использовать его фотографию и собрался подавать на художника в суд.  

Качество превыше всего

Системы ранжирования Google необходимы для того, чтобы преимущество в результатах поиска получал уникальный контент высокого качества, который соответствует стандартам E-E-A-T (опыт, компетентность, авторитетность и достоверность). Дополнительную информацию по этой теме можно найти в разделе Как работает Google Поиск.

Качество контента для нас гораздо важнее того, каким способом он создан. Именно благодаря этому мы в течение многих лет предоставляем пользователям надежную и качественную информацию.

Около десяти лет назад у нас возникли вполне понятные опасения из-за того, как быстро растет объем контента, создаваемого людьми. Заблокировать весь такой контент было бы крайне неразумно. Вместо этого следовало улучшить наши системы так, чтобы преимущество получал качественный контент, что мы и сделали.

Мы всегда стремились к тому, чтобы преимущество в результатах поиска получал контент высокого качества. Сегодня нам в этом помогают системы ранжирования, в частности , и система определения полезного контента. Благодаря этой системе, которая была представлена в прошлом году, пользователи гарантированно получают в результатах поиска материалы, созданные в первую очередь для людей, а не для повышения рейтинга.

Что произошло

Проект бельгийского художника с использованием искусственного интеллекта для анализа изображений с уличных камер вызвал резонанс в Сети.

  • Для эксперимента Дрис Депортер обратился к веб-сайту EarthCam, который стримит трансляции с уличных камер городов по всему миру. Художник записывал видео с улиц Дублина и двух городов США в течение нескольких недель.
  • Художник также нашел Instagram*-инфлюенсеров с более чем 100 тыс. подписчиков, которые делали фотографии или сторис в этих районах.
  • С помощью созданного им алгоритма он зафиксировал на видео с камер моменты, когда инфлюенсеры делали все эти снимки или снимали сторис.
  • Таким образом Депортер показал, насколько неестественным это выглядит и что скрывается за «идеальными» публикациями в Instagram*, включая десятки неудачных дублей, «прихорашивание» и фальшивые эмоции. 

Контекст

Системы уличного видеонаблюдения «окутывают» многие ведущие страны. В основном изображения с камер используют для раскрытия уголовных дел, поимки преступников или выписывания штрафов, например нарушителям ПДД.

  • Больше всего уличных камер в Китае. По последним данным, согласно сайту кибербезопасности Precisesecurity.com, их около 200 млн. Больше всего камер в Пекине (1,15 млн штук).
  • В США камер в 4 раза меньше, но зато страна лидирует по их количеству на душу населения. Если в Китае на 100 жителей приходится 14,3 камер, то в США — 15,2. Местные правоохранительные органы часто обвиняют в злоупотреблении технологиями ИИ при такой плотности камер. Например, в Детройте программа ошибочно определила чернокожего мужчину как преступника. Теперь его личная информация содержится в базе данных полиции, хотя он и не совершал преступление.
  • По данным отчета аналитического агентства TelecomDaily в 2021 году, замыкает тройку Россия. Всего в стране подключено 15,1 млн камер. При этом уровень безопасности в РФ выше, чем в США, отмечают в агентстве. В частности, сеть из более чем 200 тыс. камер в Москве активно используют в том числе для поиска преступников. Например, в 2021 году благодаря этой системе удалось раскрыть 6,8 тыс. преступлений, в 2020-м таким образом «закрыли» около 5 тыс. уголовных дел.
  • Следом за Россией идет Германия — там установлено 5,6 млн камер. Чуть меньше у Японии (около 5 млн штук).

Как узнать о воровстве контента

     Естественно, предотвратить само воровство контента – практически невозможно. Реально только усложнить жизнь воришкам. Каким образом? Как вариант, можете выкладывать статьи в виде картинок, и вашим последователям придётся самостоятельно перепечатывать тесты.

     Либо же некоторые веб-мастера ставят специальные скрипты… Которые автоматически присоединяют к стыренному тексту активную ссылку на первоисточник. Но проблема в том, что эту ссылку легко можно удалить и продолжить делать свои грязные делишки. Так что заниматься именно предотвращением копирования малоэффективное занятие. Куда важнее уметь отследить воровство контента и принять меры.

     Тут на помощь и приходит славный сервис — Google Alerts. Его работа заключается в следующем: вы задаёте определённую комбинацию слов и «договариваетесь» с гуглом, чтобы в случае обнаружения им схожих слов, вам на почту присылались ссылки на страницы, где были обнаружены комбинации. Согласитесь, здорово придумано! Пусть и  не факт, что среди присланных адресов будут воры контента, зато резко сужается круг поиска подозреваемых. Если вы решили, что Google Alerts вам будет полезен, то тогда вам нужно сделать:

  1. Перейти на главную страницу сервиса — www.google.ru/alerts.
  2. В специально отведённом поле прописать тот фрагмент текста, который, по вашему мнению, считается отличительным и который сложно качественно отрерайтить.
  3. Нажимаете на «Создать оповещение».
  4. Затем подбираете параметры оповещения:

— частоту отправки (по мере появления результатов, раз в день, раз в неделю),

— источники (автовыбор, новости, блог, видео и т.д.),

— язык,

— страны,

— количество (все, лучшие результаты),

— почта, на которую будут приходить оповещенки.

  1. Не забываем сохранить изменения.

     Теперь на указанную почту, по мере появления, будут присылаться ссылки на возможных воришек. А дальше вы проверяете, оправданы ли результаты Google Alerts или нет. Как поступить дальше – каждый решает сам.

Часто задаваемые вопросы

Ниже приведены ответы на часто задаваемые вопросы о контенте, созданном искусственным интеллектом, и Google Поиске.

Противоречит ли контент, созданный искусственным интеллектом, правилам Google Поиска?

Надлежащее использование искусственного интеллекта или инструментов автоматизации не противоречит нашим правилам. Это означает, что искусственный интеллект не должен использоваться для создания контента, нацеленного исключительно на продвижение сайта в результатах поиска. Это является .

Почему Google Поиск не блокирует контент, созданный искусственным интеллектом?

Инструменты автоматизации уже давно используются в издательском деле для создания полезного контента. Искусственный интеллект позволяет генерировать качественный контент новыми способами.

Стоит ли использовать искусственный интеллект для создания контента?

Если вы хотите создать полезный и уникальный контент, вероятно, вам стоит рассмотреть этот вариант. Если вы ищете способ повысить рейтинг в поисковых системах, тогда этот вариант вам не подойдет.

Нужно ли добавлять имена авторов ко всему контенту?

Сведения об авторе следует добавлять, если у читателей могут возникнуть вопросы о том, кто создал контент. Указывайте такую информацию, когда она обоснованно необходима.

Напоминаем, что издатели в Google Новостях должны указывать имена авторов и сведения о них.
Дополнительная информация приведена на странице Правила Google Новостей.

Можно ли указать искусственный интеллект в качестве автора контента?

Если о том, что в создании контента принимал участие искусственный интеллект, не рекомендуется указывать его в качестве автора.

Что нужно знать авторам, использующим искусственный интеллект

Как мы уже говорили, неважно, каким образом создан контент. Чтобы занять хорошие позиции в Google Поиске, он должен соответствовать стандартам E-E-A-T, а также быть уникальным, высокого качества и ориентированным на людей.. Дополнительную информацию о концепции E-E-A-T можно найти на странице Создание полезного и заслуживающего доверия контента, ориентированного на людей

Кроме того, мы добавили в эту статью рекомендации для оценки контента по схеме .

Дополнительную информацию о концепции E-E-A-T можно найти на странице Создание полезного и заслуживающего доверия контента, ориентированного на людей. Кроме того, мы добавили в эту статью рекомендации для оценки контента по схеме .

Оцените свой контент по этой схеме, чтобы четко понимать, что поощряют наши системы.

Авторы: Дэнни Салливан (Danny Sullivan) и Крис Нелсон (Chris Nelson), представители команды по оценке качества поиска

О логике как «игре»

Вопрос про абстрактных мюмзиков и зелюк был бы нечестным. Абстрактные задачи и приводят людей к заблуждению, что логика — это игра, выучив правила которой можно решать такие бессмысленные задачи. А потом, когда людям приводят убедительно выглядящие, но ошибочные рассуждения на темы из реальности, они думают, что логика им ни к чему. Моя печаль именно по этому поводу.

И поэтому, когда автор опроса так легко обвёл людей вокруг пальца, у нас нет повода дать невысокую оценку их мыслительным способностям! Ну логично, слов нет.

А дальше самое страшное:

Правильный ответ в тесте не противоречит объективной реальности. Даже утверждение «Бог — создатель всего сущего» не противоречит. Просто мы не знаем, истинное оно или ложное. А утверждение «Бог — создатель всего сущего. Земля есть сущее. Следовательно, Бог создал землю» не только не противоречит, но ещё и однозначно истинное. Из первых двух предложений действительно, неизбежно, объективно следует третье. В реальности, где же ещё?

В противопоставлении логики и реальности, на мой взгляд, самый главный вред от Никитиной заметки. Он подтверждает сформированное мюмзиками и зелюками ощущение людей, что жизнь отдельно, а логика — отдельно. У людей возникает впечатление, что логика — искусственная «игра», в которой что-то может противоречить объективной реальности.

Между тем, логики бы вообще не было, если бы не объективная реальность. Только потому, что реальность полностью подчинена логике, мы можем взять кучу формул, выведенных логически, и теорем, доказанных логически, построить по ним реальный мост, и он потом реально не упадёт.

Мне вспоминается вот эта картинка, где ученик «просто ответил», приняв происходящее за чистую монету, а преподаватель попытался его оценить:

А ведь тут трюк: на самом деле надо было не найти x, а вычислить значение гипотенузы по формуле. (В этот момент я развожу руками.)

Прецедент

О нарушении конфиденциальности не раз обвиняли сервис Google Street View, который позволяет пользователям исследовать местность с помощью панорамных изображений улиц. Снимки делают в основном из автомобилей, оборудованных камерами. Пользователи, случайно попавшие в кадр, могут отправить в Google запрос на удаление или размытие снимка. Но этого, как показывает практика, все равно недостаточно.

  • Например, в Греции на 5 лет запретили работу сервиса, пока Google не представила дополнительные данные относительно защиты частной жизни людей, запечатленных на панорамных фото. 
  • В Японии после многочисленных жалоб о нарушении прав граждан Google обязали переснять многие районы, установив камеры на автомобилях компании на 40 см ниже. Дело в том, что в стране принято устанавливать низкие заборы.
  • В Чехии в 2010 году запретили Google делать новые панорамные фотографии городских улиц. Власти решили, что эта деятельность компании может нарушать права граждан страны. 

При этом жители России, в отличие от иностранцев, не боятся «попасть» в Сеть, заявили создатели «Яндекс.Панорам» — российского аналога Street View. «Никто не жаловался, все довольны. Пишут на форумах: «Я нашел себя на панорамах!», — отметили руководители проекта.

*Продукт компании Meta, признанной экстремистской в России.

Фото обложки: Dries Depoorter

О свойстве человека ошибаться

Я не знаю, как взять такой интеграл. Кто-то не знает, как решить логическую задачу. Люди, не знающие, что делать с этим интегралом, отдают себе в этом отчёт, и проходят мимо. Но в примерах, о которых пишу я, люди тыкают в первое, что пришло в голову, не потрудившись подумать.

Глядя на этот интеграл, большинство хотя бы осознает, что они не в силах его взять, и что это требует специальных знаний, и что эти знания относятся к дисциплине «математика». А в случае с логикой у людей всё настолько плохо, что они даже не знают того, что не владеют ею. И это при том, что она многократно проще.

Эти рассуждения доказывают обратное. В отличие от задачи с интегралом, здесь достаточно короткого объяснения, чтобы правильный ответ был понятен любому. Значит, задача не требует специальных знаний и долгой тренировки, она доступна человеку без подготовки.

Мне тоже сначала пришли в голову десять центов. Когда я увидел вопрос про Джека, Анну и Джоржа, я тоже сначала подумал, что невозможно определить. А в вопросе про планеты и бога мне тоже сначала показался правильным ответ про планеты. Кто же спорит с тем, что эти ответы — первое, что приходит на ум? Кто же спорит с тем, что это естественно?

Беда не в том, что ответ, больше всего внешне похожий на правильный, первым приходит в голову. Беда в том, что ответ, который первым приходит в голову, люди считают правильным. Разница — капитальная.

То, насколько легко человека обвести вокруг пальца, не говорит… Стоп, как не говорит?

Да и разговор не о том, тупой или не тупой. Мне грустно, что столь многих людей так легко обвести вокруг пальца в простейшем случае, когда достаточно хоть на мгновение включить мозг, чтобы не оказаться обманутым. Чего же мы тогда ждём от результатов выборов?

А когда людям говорят: «смотри, тебя перехитрили», они даже не понимают, что у них проблема. Они не говорят: «о-ой, вот я тупанул!». Они говорят: «я человек, и мне свойственно ошибаться!».

Неспособность взять на себя ответственность даже за результат дурацкого теста, желание спихнуть ошибку на свою «природу» — это ли не инфантилизм? Алло, ты ошибся, потому что не дал себе труда пять секунд подумать, а не потому что «человек»!

Понравилась статья? Поделиться с друзьями:
Калипсо
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: