Google Deepmind поділився своїм планом зробити штучним загальним інтелектом (AGI) безпечнішим.
У звіті під назвою “Підхід до технічної безпеки та безпеки AGI” пояснюється, як припинити шкідливе використання AI, посилюючи свої переваги.
Незважаючи на високотехнічні, його ідеї незабаром можуть вплинути на інструменти AI, що пошук живлення, створення контенту та інші маркетингові технології.
Графік AGI Google
Deepmind вважає, що AGI може бути готовим до 2030 року. Вони очікують, що AI працюватиме на рівнях, що перевершують ефективність людини.
Дослідження пояснює, що вдосконалення відбудуться поступово, а не в драматичних стрибках. Для маркетологів нові інструменти AI стабільно стануть більш потужними, даючи бізнесу час для коригування своїх стратегій.
У звіті написано:
“Ми дуже невпевнені щодо строків, поки не будуть розроблені потужні системи AI, але важливо, що ми вважаємо правдоподібними, що вони будуть розроблені до 2030 року.”
Дві ключові сфери фокусування: запобігання зловживанню та нерівності
Звіт зосереджується на двох основних цілях:
- Припинення зловживання: Google хоче заблокувати поганих акторів від використання потужного ШІ. Системи будуть розроблені для виявлення та припинення шкідливих заходів.
- Припинення нерівності: Google також має на меті забезпечити, щоб системи AI дотримувались побажань людей, а не діяти самостійно.
Ці заходи означають, що майбутні інструменти AI в маркетингу, ймовірно, включатимуть вбудовані перевірки безпеки, а ще працюють за призначенням.
Як це може вплинути на маркетингові технології
Управління на рівні моделі
Deepmind планує обмежити певні функції ШІ, щоб запобігти неправильному використанню.
Такі методи Придушення можливостей Переконайтесь, що система AI охоче утримує небезпечні функції.
У звіті також обговорюється нешкідливість після тренуваннящо означає, що система навчається ігнорувати запити, які вона вважає шкідливою.
Ці кроки означають, що вміст та системи автоматизації, що працюють на AI, матимуть сильні етичні фільтри. Наприклад, генератор вмісту може відмовитись у виробництві оманливих або небезпечних матеріалів, навіть якщо їх натиснути зовнішні підказки.
Захист на рівні системи
Доступ до найсучасніших функцій AI може бути жорстко контрольований. Google може обмежити певні функції довіреним користувачам та використовувати моніторинг для блокування небезпечних дій.
У звіті зазначено:
“Моделі з небезпечними можливостями можуть бути обмежені перевіреними групами користувачів та використанням випадків, зменшуючи поверхню небезпечних можливостей, до яких актор може спробувати неналежним чином отримати доступ”.
Це означає, що підприємницькі інструменти можуть запропонувати більш широкі функції для надійних партнерів, тоді як інструменти для споживачів отримають додаткові шари безпеки.
Потенційний вплив на конкретні маркетингові сфери
Пошук та SEO
Покращені заходи безпеки Google можуть змінити спосіб роботи пошукових систем. Нові алгоритми пошуку можуть краще зрозуміти наміри користувача та вміст якості довіри, який відповідає основним людським цінностям.
Інструменти створення вмісту
Розширені генератори вмісту AI запропонують розумніший результат із вбудованими правилами безпеки. Маркетологам може знадобитися встановити свої інструкції, щоб AI міг створити точний та безпечний контент.
Реклама та персоналізація
У міру того, як AI стає більш здатним, наступне покоління AD Tech може запропонувати покращене націлювання та персоналізацію. Однак суворі перевірки безпеки можуть обмежити, наскільки система може підштовхнути техніку переконання.
Дивлячись вперед
Дорожня карта Google Deepmind демонструє зобов’язання просунути АІ, роблячи її безпекою.
Для цифрових маркетологів це означає, що майбутнє принесе потужні інструменти AI із вбудованими заходами безпеки.
Розуміючи ці плани безпеки, ви можете краще планувати майбутнє, де AI працює швидко, безпечно та співвідносяться з діловими цінностями.
Популярне зображення: Студія Shutterstock/Iljanaresvara Studio
