Videot e rreme të përsosura do të njihen nga inteligjenca artificiale
Videot e rreme të përsosura do të njihen nga inteligjenca artificiale

Video: Videot e rreme të përsosura do të njihen nga inteligjenca artificiale

Video: Videot e rreme të përsosura do të njihen nga inteligjenca artificiale
Video: Seit 10 Jahren die Frau eines Massai - Stephanie´s Leben unter einfachsten Verhältnissen - YouTube 2024, Mund
Anonim
Premiera e operës për helmimin e Litvinenko fillon në Angli
Premiera e operës për helmimin e Litvinenko fillon në Angli

Një vit më parë, Manish Agrawala i Stanford ndihmoi në zhvillimin e teknologjisë së sinkronizimit të buzëve që lejoi redaktuesit e videove të ndryshonin fjalët e folësve pothuajse në mënyrë të padukshme. Mjeti mund të fusë me lehtësi fjalë që një person nuk i ka folur, madje as në mes të një fjalie, ose të fshijë fjalët që ai ka thënë. Çdo gjë do të duket realiste me sy të lirë dhe madje edhe për shumë sisteme kompjuterike.

Ky mjet e ka bërë shumë më të lehtë për të rregulluar gabimet pa ri-xhiruar skena të tëra, dhe gjithashtu ka përshtatur shfaqje televizive ose filma për auditorë të ndryshëm në vende të ndryshme. Por kjo teknologji ka krijuar gjithashtu mundësi të reja shqetësuese për video të rreme të vështira për t'u gjetur, me qëllimin e qartë të shtrembërimit të së vërtetës. Për shembull, një video e kohëve të fundit republikane përdori një teknikë më të ashpër për një intervistë me Joe Biden.

Këtë verë, Agrawala dhe kolegët në Stanford dhe UC Berkeley zbuluan një qasje të bazuar në inteligjencën artificiale në teknologjinë e sinkronizimit të buzëve. Programi i ri zbulon me saktësi më shumë se 80 përqind të falsifikimeve, duke njohur mospërputhjet më të vogla midis tingujve të njerëzve dhe formës së gojës së tyre.

Por Agrawala, drejtor i Institutit Stanford për Inovacionin e Medias dhe profesor i shkencave kompjuterike në Forest Baskett, i cili është gjithashtu i lidhur me Institutin Stanford për Inteligjencën Artificiale me Qendër Njerëzore, paralajmëron se nuk ka zgjidhje teknike afatgjatë për falsifikimet e thella.

Si funksionojnë falsifikimet

Ka arsye legjitime për manipulimin e videos. Për shembull, kushdo që filmon një shfaqje televizive, film ose reklamë imagjinare mund të kursejë kohë dhe para duke përdorur mjete dixhitale për të korrigjuar gabimet ose për të personalizuar skenaret.

Problemi lind kur këto mjete përdoren qëllimisht për të përhapur informacion të rremë. Dhe shumë nga teknikat janë të padukshme për shikuesit mesatarë.

Shumë video të rreme të mëdha mbështeten në ndërrimet e fytyrës, duke mbivendosur fjalë për fjalë fytyrën e një personi në videon e një personi tjetër. Por ndërsa mjetet për ndryshimin e fytyrës mund të jenë bindëse, ato janë relativisht të papërpunuara dhe zakonisht lënë artefakte dixhitale ose vizuale që një kompjuter mund të zbulojë.

Nga ana tjetër, teknologjitë e sinkronizimit të buzëve janë më pak të dukshme dhe për këtë arsye më të vështira për tu zbuluar. Ata manipulojnë një pjesë shumë më të vogël të imazhit dhe më pas sintetizojnë lëvizjet e buzëve që përputhen saktësisht se si goja e një personi në të vërtetë do të lëvizte nëse ai ose ajo do të fliste fjalë të caktuara. Sipas Agrawal, duke pasur parasysh mjaft mostra të imazhit dhe zërit të një personi, një prodhues i rremë mund ta bëjë një person të "thotë" gjithçka.

Zbulimi i falsifikimit

I shqetësuar për përdorimin joetik të një teknologjie të tillë, Agrawala punoi me Ohad Freed, një student doktorature në Stanford, për të zhvilluar një mjet zbulimi; Hani Farid, profesor në Universitetin e Kalifornisë, Berkeley School of Information; dhe Shruti Agarwal, një student doktorature në Berkeley.

Në fillim, studiuesit eksperimentuan me një teknikë thjesht manuale në të cilën vëzhguesit studiuan pamjet video. Punoi mirë, por në praktikë ishte punë intensive dhe konsumonte kohë.

Studiuesit pastaj testuan një rrjet nervor të bazuar në inteligjencën artificiale, i cili do të ishte shumë më i shpejtë për të bërë të njëjtën analizë pas trajnimit në video me ish-Presidentin Barack Obama. Rrjeti nervor zbuloi më shumë se 90 përqind të sinkronizimit të buzëve të Obamës, megjithëse saktësia për folësit e tjerë ra në rreth 81 përqind.

Një provë e vërtetë e së vërtetës

Studiuesit thonë se qasja e tyre është vetëm pjesë e lojës së maceve dhe miut. Ndërsa teknikat e falsifikimit të thellë përmirësohen, ato do të lënë edhe më pak çelësa.

Në fund, thotë Agrawala, problemi i vërtetë nuk është aq shumë luftimi i videove të rreme sa luftimi i dezinformatave. Në fakt, vëren ai, shumica e dezinformatave vijnë nga shtrembërimi i kuptimit të asaj që njerëzit në të vërtetë thanë.

"Për të zvogëluar dezinformatat, ne kemi nevojë për të përmirësuar shkrim -leximin në media dhe zhvillimin e sistemeve të llogaridhënies," thotë ai. "Kjo mund të nënkuptojë ligje që ndalojnë prodhimin e qëllimshëm të dezinformatave dhe pasojat e shkeljes së tyre, si dhe mekanizmat për eliminimin e dëmit që rezulton."

Recommended: