Вештачката интелигенција не ја следи логиката на научниот напредок
Технологија

Вештачката интелигенција не ја следи логиката на научниот напредок

Многупати во МТ пишувавме за истражувачи и професионалци кои ги прогласуваат системите за машинско учење како „црни кутии“ (1) дури и за оние што ги градат. Ова го отежнува оценувањето на резултатите и повторното користење на новите алгоритми.

Невронските мрежи - техниката што ни дава интелигентни конвертирачки ботови и генијални генератори на текст кои можат дури и да создаваат поезија - останува неразбирлива мистерија за надворешните набљудувачи.

Тие стануваат се поголеми и посложени, ракуваат со огромни збирки на податоци и користат масивни пресметковни низи. Ова ја прави репликацијата и анализата на добиените модели скапи, а понекогаш и невозможни за другите истражувачи, освен за големите центри со огромни буџети.

Многу научници се добро свесни за овој проблем. Меѓу нив е и Џоел Пино (2), претседател на NeurIPS, премиерната конференција за репродуктивност. Експертите под нејзино раководство сакаат да создадат „листа за проверка на репродуктивност“.

Идејата, рече Пино, е да се охрабрат истражувачите да им понудат на другите патоказ за да можат да ја рекреираат и користат веќе завршената работа. Можете да се восхитувате на елоквентноста на новиот генератор на текст или на натчовечката умешност на роботот за видео игри, но дури и најдобрите експерти немаат поим како функционираат овие чуда. Затоа, репродукцијата на моделите со вештачка интелигенција е важна не само за идентификување на нови цели и насоки за истражување, туку и како чисто практичен водич за употреба.

Други се обидуваат да го решат овој проблем. Истражувачите на Google понудија „модел картички“ за детално да опишат како се тестирале системите, вклучително и резултати кои укажуваат на потенцијални грешки. Истражувачите од Институтот за вештачка интелигенција Ален (АИ2) објавија труд кој има за цел да ја прошири листата за проверка на репродуктивност Пино на други чекори во експерименталниот процес. „Покажи ја својата работа“, повикуваат тие.

Понекогаш недостасуваат основни информации бидејќи истражувачкиот проект е во сопственост, особено на лаборатории кои работат за компанијата. Почесто, сепак, тоа е знак за неможност да се опишат променливите и сè покомплексни методи на истражување. Невронските мрежи се многу сложена област. За да се добијат најдобри резултати, често е потребно фино подесување на илјадници „копчиња и копчиња“, што некои го нарекуваат „црна магија“. Изборот на оптималниот модел често се поврзува со голем број експерименти. Магијата станува многу скапа.

На пример, кога Facebook се обиде да ја повтори работата на AlphaGo, систем развиен од DeepMind Alphabet, задачата се покажа исклучително тешка. Огромните пресметковни барања, милионите експерименти на илјадници уреди во текот на многу денови, во комбинација со недостатокот на код, го направија системот „многу тежок, ако не и невозможен, да се рекреира, тестира, подобри и прошири“, велат вработените во Facebook.

Се чини дека проблемот е специјализиран. Меѓутоа, ако размислиме понатаму, феноменот на проблеми со репродуктивноста на резултатите и функциите меѓу еден и друг истражувачки тим ја поткопува целата логика на функционирањето на науката и истражувачките процеси кои ни се познати. Како по правило, резултатите од претходните истражувања може да се користат како основа за понатамошни истражувања кои го стимулираат развојот на знаењето, технологијата и општиот напредок.

Додадете коментар