• технология
  • Електрическо оборудване
  • Материална индустрия
  • Дигитален живот
  • Политика за поверителност
  • О име
Location: Home / технология / Как ИИ за генериране на езици може да трансформира науката

Как ИИ за генериране на езици може да трансформира науката

techserving |
1192

Алгоритмите за машинно обучение, които генерират плавен език от огромни количества текст, биха могли да променят начина, по който се прави науката – но не непременно към по-добро, казва Шобита Партасарати, специалист по управление на нововъзникващи технологии в Мичиганския университет в Ан Арбър.

В доклад, публикуван на 27 април, Партхасарати и други изследователи се опитват да предвидят общественото въздействие на нововъзникващите технологии с изкуствен интелект (AI), наречени големи езикови модели (LLM). Те могат да създават удивително убедителна проза, да превеждат между езици, да отговарят на въпроси и дори да създават код. Корпорациите, които ги изграждат - включително Google, Facebook и Microsoft - имат за цел да ги използват в чатботове и търсачки и да обобщават документи. (Поне една фирма, Ought, в Сан Франциско, Калифорния, изпробва LLM в научните изследвания; тя изгражда инструмент, наречен „Elicit“, за да отговаря на въпроси, използвайки научната литература.)

LLM вече са противоречиви. Понякога повтарят грешки или проблемни стереотипи в милионите или милиарди документи, на които са обучени. И изследователите се притесняват, че потоците от очевидно авторитетен компютърно генериран език, който е неразличим от човешко писане, могат да предизвикат недоверие и объркване.

Parthasarathy казва, че въпреки че LLMs биха могли да засилят усилията за разбиране на сложните изследвания, те също биха могли да задълбочат обществения скептицизъм към науката. Тя говори с Nature за доклада.

Как LLM могат да помогнат или да попречат на науката?

Първоначално мислех, че LLM могат да имат демократизиращо и овластяващо въздействие. Що се отнася до науката, те биха могли да дадат възможност на хората бързо да извличат прозрения от информацията: чрез запитване за симптоми на заболяване например или генериране на резюмета на технически теми.

Но алгоритмичните обобщения могат да доведат до грешки, да включват остаряла информация или да премахнат нюанси и несигурност, без потребителите да оценят това. Ако някой може да използва LLM, за да направи сложните изследвания разбираеми, но рискува да получи опростен, идеализиран възглед за науката, който е в противоречие с обърканата реалност, това може да застраши професионализма и авторитета. Това може също така да изостри проблемите с общественото доверие в науката. И взаимодействието на хората с тези инструменти ще бъде много индивидуализирано, като всеки потребител ще получава своя собствена генерирана информация.

Не е ли огромен проблем проблемът, че LLM може да се основава на остарели или ненадеждни изследвания?

Да. Но това не означава, че хората няма да използват LLM. Те са примамливи и ще имат обективност, свързана с плавния им резултат и представянето им като вълнуващи нови технологии. Фактът, че те имат ограничения - че могат да бъдат изградени върху частични или исторически набори от данни - може да не бъде разпознат от средния потребител.

За учените е лесно да твърдят, че са умни и да осъзнават, че LLM са полезни, но непълни инструменти — да речем, за започване на преглед на литературата. Все пак този вид инструменти могат да стеснят зрителното им поле и може да е трудно да се разпознае, когато LLM сбърка нещо.

Как ИИ за генериране на езици може да трансформира науката

LLM могат да бъдат полезни в дигиталните хуманитарни науки, например: за обобщаване на това, което историческият текст казва за определена тема. Но процесите на тези модели са непрозрачни и те не предоставят източници заедно с техните резултати, така че изследователите ще трябва да помислят внимателно как ще ги използват. Виждал съм някои предложени употреби в социологията и бях изненадан колко лековерни са някои учени.

Кой може да създаде тези модели за наука?

Моето предположение е, че големите научни издатели ще бъдат в най-добрата позиция да разработят специфични за науката LLMs (адаптирани от общи модели), способни да обхождат частния пълен текст на своите документи. Те биха могли също така да се стремят да автоматизират аспекти на партньорската проверка, като например запитване до научни текстове, за да разберат кой трябва да бъде консултиран като рецензент. LLM могат също да се използват, за да се опитат да изберат особено иновативни резултати в ръкописи или патенти и може би дори да помогнат за оценката на тези резултати.

Издателите биха могли също така да разработят софтуер за LLM, за да помогнат на изследователи в неанглоговорящи страни да подобрят своята проза.

Разбира се, издателите могат да сключат лицензионни сделки, като предоставят своя текст на големи фирми за включване в техните корпуси. Но мисля, че е по-вероятно те да се опитат да запазят контрола. Ако е така, подозирам, че учените, все по-разочаровани от своите монополи на знания, ще оспорват това. Има известен потенциал за LLMs, базирани на документи с отворен достъп и резюмета на платени документи. Но може да е трудно да се получи достатъчно голям обем актуален научен текст по този начин.

Може ли LLM да се използва за създаване на реалистични, но фалшиви документи?

Да, някои хора ще използват LLM за генериране на фалшиви или почти фалшиви документи, ако е лесно и смятат, че ще им помогне в кариерата. Все пак, това не означава, че повечето учени, които искат да бъдат част от научните общности, няма да могат да се споразумеят за разпоредби и норми за използване на LLM.

Как трябва да се регулира използването на LLM?

За мен е очарователно, че едва ли има инструменти за изкуствен интелект, които са преминали през систематични регулации или механизми за поддържане на стандарти. Това важи и за LLMs: техните методи са непрозрачни и варират в зависимост от разработчика. В нашия доклад отправяме препоръки към държавните органи да се намесят с общо регулиране.

По-конкретно за възможната употреба на LLM в науката, прозрачността е от решаващо значение. Тези, които разработват LLM, трябва да обяснят какви текстове са били използвани и логиката на включените алгоритми - и трябва да е ясно дали е използван компютърен софтуер за генериране на изход. Смятаме, че Националната научна фондация на САЩ също трябва да подкрепи разработването на LLM, обучени по всички публично достъпни научни статии в голямо разнообразие от области.

И учените трябва да се пазят от списания или финансиращи организации, които разчитат на LLM за намиране на партньорски рецензенти или (възможно) разширяване на този процес към други аспекти на рецензията, като например оценка на ръкописи или субсидии. Тъй като LLMs се ориентират към минали данни, те вероятно ще бъдат твърде консервативни в своите препоръки.

Тази статия е възпроизведена с разрешение и е публикувана за първи път на 28 април 2022 г.