Търтеите и безпилотни превозни средства като оръжие: защо ние трябва да се страхуват от хакери
От технологии / / December 19, 2019
Никой не би отрекъл, че изкуствен интелект може да постави живота си на ново ниво. AI е в състояние да реши много проблеми, които са извън властта на човека.
Въпреки това, мнозина смятат, че свръхразум ще искат да ни унищожат, като Skynet, или да започне да провежда експерименти върху хора като GLaDOS от играта Portal. Иронията е, че за да се направи изкуствен интелект може само хора добро или зло.
Изследователи от Йейл, Оксфорд, Кеймбридж, и е публикувал компанията OpenAI доклад на злоупотребата с изкуствен интелект. Той казва, че истинската опасност идва от хакери. С помощта на зловреден код, те могат да нарушат функционирането на автоматизирани системи под AI контрол.
Изследователите се опасяват, че тази технология е създадена с добри намерения, ще бъдат използвани за вреди. Така например, наблюдение може да се прилага не само за улов на терористите, но и да шпионира обикновените граждани. Изследователите също така тревожен търговски безпилотни самолети, които доставят храна. Те са лесни за прихващане и сложи нещо експлозив.
Друг сценарий е разрушителна използване на изкуствен интелект - безпилотни превозни средства. Достатъчно е да се променят няколко реда код, и машината ще започне да се игнорира правилата за безопасност.
Учените смятат, че заплахата може да е цифров, физическа и политическа.
- Изкуствен интелект вече се използва за проучване на уязвимостите на различни програмни кодове. В бъдеще хакерите биха могли да създадат такъв бот, който ще заобиколи всеки защита.
- С AI човек може да се автоматизира много от процесите: например, да се контролира рояк от безпилотни самолети, или група от превозни средства.
- С технологии като DeepFake, може да повлияе на политическия живот на държавата, разпространяване на невярна информация за лидерите на света чрез интернет ботове.
Тези примери плашещи съществуват само като хипотеза. Авторите на изследването не предлагат пълно отхвърляне на технологиите. Вместо това, те смятат, че правителствата и големите компании трябва да се грижат за сигурността, а индустрията изкуствен интелект зародиш.
Политиците трябва да се научат на технологията и да работят заедно с експерти в областта, за да регулира ефективно създаване и използване на изкуствения интелект.
Разработчици, от своя страна, трябва да се оцени опасността от високите технологии, за да се предвидят и предотвратят най-тежките последици от тези световни лидери. призивите отчета за AI на разработчиците: Обединете се с експерти по сигурността в други области и за да разберете дали можете да използвате принципите, които се гарантира безопасността на тези технологии за защита на изкуствен интелигентност.
Пълен отчет описва проблема по-подробно, но фактът, че AI - мощен инструмент. Всички заинтересовани страни трябва да се научите на нова технология и се уверете, че тя не се използва за престъпни цели.