Любезност на илюстрацията на: Jое M.

Алгоритмите ни казват как да мислим и това ни променя

Докато компютрите се учат да ни имитират, започваме ли да приличаме повече на тях?

Силиконовата долина прогнозира все повече и повече как ще отговаряме на имейл, ще реагираме на снимката на някой в ​​Instagram, ще определим за кои правителствени услуги отговаряме на условията и скоро предстоящият Google Assistant ще може да се обади на нашия фризьор за нас в реално- време.

Ние сме поканили алгоритми практически навсякъде, от болници и училища до съдебни зали. Ние сме заобиколени от автономна автоматизация. Редовете с код могат да ни кажат какво да гледаме, кого да правим и дори кого трябва да изпрати в затвора правосъдната система.

Правим ли грешка, като предаваме толкова много правомощия за вземане на решения и контрол върху редовете от код?

Обсебени сме от математическите процедури, защото те ни дават бързи, точни отговори на редица сложни проблеми. Системите за машинно обучение са внедрени в почти всички области на нашето модерно общество.

И все пак, това, което трябва да се запитаме е, правим ли грешка, като предаваме толкова много правомощия за вземане на решения и контрол върху редовете от код? И как алгоритмите влияят на живота ни?

В един постоянно променящ се свят машините вършат чудесна работа, научавайки как хората се държат, какво харесваме и мразим и какво е най-доброто за нас с бързи темпове. В момента живеем в камерите на технологиите за предсказване - О, ей там Автоматично довършване!

Алгоритмите драстично преобразиха живота ни чрез сортиране на необятните данни и даване на подходящи, моментални резултати. Събирайки големи количества данни, ние предоставихме на компаниите през годините правомощието да решават кое е най-доброто за нас.

Компании като Alphabet или Amazon захранват съответните си алгоритми с събраните данни и инструктират AI да използва събраната информация, за да се адаптира към нашите нужди и да бъде по-скоро като нас. Въпреки това, докато свикваме с тези удобни функции, говорим ли и се държим по-скоро като компютър?

„Алгоритмите не са по своята същност справедливи, защото човекът, който изгражда модела, определя успеха.“ - Кати О’Нийл, учен по данни

С тази технологична скорост е невъзможно да не си представим близко бъдеще, в което поведението ни се ръководи или диктува от алгоритми. Всъщност това вече се случва.

Създаден да ви помогне да пишете съобщения или бързи отговори, през октомври Google внедри най-новата си функция в Gmail, наречена Smart Replies. Тъй като, като вземете интернет от буря, много хора критикуваха асистента, казвайки, че неговите персонализирани предложения са инвазивни, правят хората да изглеждат като машини, като някои дори аргументират отговорите му в крайна сметка биха могли да повлияят на начина, по който общуваме или евентуално да променим етикета на електронната поща.

Основният проблем с алгоритмите е, когато станат толкова големи и сложни, започват да се отразяват негативно на нашето сегашно общество, излагайки на опасност демокрацията - Здравей Марк Цукерберг, или поставяйки гражданите в оруелски мерки, като Китай, като взема безпрецедентни средства за класиране на кредитния рейтинг на хората чрез проследяване тяхното поведение с дистопична програма за наблюдение.

Тъй като системите за машинно обучение стават все по-разпространени в много области на обществото. Дали алгоритмите ще управляват света, превземайки мислите ни?

Сега, нека използваме подхода на Facebook. Още през 2015 г. те представиха по-новата си версия на News Feed, която беше създадена като находчив начин за нагряване и увеличаване на емисиите на потребителите в персонализиран вестник, който им позволява да участват в съдържание, което преди са харесвали, споделяли и коментирали.

Проблемът с „персонализирани“ алгоритми е, че те могат да поставят потребителите във филтърни мехурчета или ехо камери. В реалния живот повечето хора са много по-малко склонни да се занимават с гледни точки, които намират за объркващи, досадни, неправилни или отвратителни. В случая на алгоритмите на Facebook, те дават на потребителите това, което искат, в резултат на това всяко захранване се превръща в уникален свят. Отличителна реалност сама по себе си.

Филтърните мехурчета затрудняват все повече публичния спор, защото от гледна точка на системата информацията и дезинформацията изглеждат абсолютно еднакви. Както Роджър Макнаме написа наскоро за списание Time „Във Facebook фактите не са абсолютни; те са избор да бъдат оставени първоначално на потребителите и техните приятели, но след това увеличени чрез алгоритми за насърчаване на ангажираността. "

Филтърните мехурчета създават илюзия, че всички вярват в едни и същи неща, които правим или имат същите навици. Както вече знаем, във Фейсбук алгоритмите утежниха проблема, като увеличиха поляризацията и в крайна сметка навредиха на демокрацията. С доказателства, които показват, че алгоритмите може да са повлияли на британски референдум или избори през 2016 г. в САЩ.

„Алгоритмите на Facebook рекламират екстремни съобщения над неутрални, които могат да повишат дезинформацията на информация, конспиративните теории върху фактите.“ - Роджър Макнами, инвеститор в Силициевата долина.

В съвременния свят, постоянно изпълнен с нависоки могили от информация, пресяването през него представлява огромно предизвикателство за някои хора. AI - използван разумно - може потенциално да подобри нечий опит в интернет или да помогне за бързо справяне с непрекъснато нарастващите натоварвания от съдържание. За да функционират правилно обаче, алгоритмите изискват точни данни за случващото се в реалния свят.

Компаниите и правителствата трябва да се уверят, че данните на алгоритмите не са предубедени или неточни. Тъй като в природата нищо не е перфектно, очаква се естествено предубедени данни да са вътре в много алгоритми и това излага на опасност не само нашия онлайн свят, но и физическия, истинския.

Задължително е да се застъпваме за прилагането на по-силни регулаторни рамки, така че да не се озоваваме в технологичен Див Запад.

Трябва да сме изключително предпазливи и по отношение на мощността, която даваме алгоритмите. Увеличават се страховете заради алгоритмите за проблемите на прозрачността и етичните последици зад решенията и процесите, взети от тях, и социалните последици, засягащи хората.

Например, AI, използван в съдебните зали, може да засили предубедеността, да дискриминира малцинствата, като вземе предвид „рискови“ фактори като техните квартали и връзки с престъпността. Тези алгоритми биха могли да правят систематично грешни грешки и да изпращат невинни, истински хора в затвора.

„Имаме ли опасност да загубим човечността си?“

Като експерт по сигурността, Брус Шнайер пише в книгата си „Click Here to Kill Everybody“, „ако оставим компютрите да мислят за нас и основните входни данни са повредени, те ще направят мисленето лошо и ние никога няма да го знаем“.

Хана Фрай, математик от University College London, ни пренася в един свят, в който компютрите работят свободно. В последната си книга Hello World: Да бъдеш човек в епохата на алгоритмите, тя твърди, че като граждани трябва да обръщаме повече внимание на хората зад клавиатурата, тези, които програмират алгоритмите.

„Не е нужно да създаваме свят, в който машините ни казват какво да правим или как да мислим, въпреки че много добре можем да се окажем в такъв свят“, казва тя. В цялата книга тя често пита: „Имаме ли опасност да загубим човечността си?“

В момента все още не сме на етапа, в който хората са извън картината. Ролята ни в този свят все още не е отменена, нито ще бъде и след дълго. Хората и машините могат да работят заедно със своите силни и слаби страни. Машините са недостатъчни и правят същите грешки, както и ние. Трябва да внимаваме колко информация и сила отдаваме, защото алгоритмите вече са неотменна част от човечеството и те няма да отидат никъде в скоро време.