Przestań czytać prawo autorskie, zacznij tworzyć z AI, zgodnie z autorskim prawem.
AI i prawo autorskie w audio – praktyczny przewodnik dla lektorów, podcasterów i realizatorów dźwięku
Słuchaj, ostatnio widzę wszędzie albo panikę albo bezkrytyczny hype. Jedni mówią że AI ukradnie nam pracę i odbierze autorstwo. Drudzy że możemy generować co chcemy i mamy w dupie licencje. Prawda jak zwykle leży gdzieś pośrodku i jest dużo bardziej prozaiczna niż te skrajności.
Pracuję z dźwiękiem od piętnastu lat. Widziałem jak branża przeszła od taśm przez DAW po wtyczki które same poprawiają wokal. I zawsze był ten sam strach – że narzędzie zastąpi człowieka. Nie zastąpiło. Zmieniło sposób pracy. I teraz mamy dokładnie to samo z AI tylko że głośniej.
Co faktycznie mówi polska ustawa o prawie autorskim
Zacznijmy od tego co jest czarno na białym. Ustawa o prawie autorskim i prawach pokrewnych mówi wprost – przedmiotem prawa autorskiego jest każdy przejaw działalności twórczej o indywidualnym charakterze, ustalony w jakiejkolwiek postaci, niezależnie od wartości, przeznaczenia i sposobu wyrażenia.
Rozbijmy to na czynniki pierwsze bo brzmi jak paragraf.
Po pierwsze – przejaw działalności twórczej. Nie algorytmu. Nie maszyny. Człowieka. Musi być twórcza decyzja, wybór, koncepcja.
Po drugie – o indywidualnym charakterze. Czyli nie może być to schemat, szablon, coś co każdy by zrobił tak samo. Musi być Twój ślad.
Po trzecie – ustalony w jakiejkolwiek postaci. Tu jest haczyk którego wiele osób nie łapie. Nie chodzi o format pliku tylko o to że utwór został w jakiś sposób utrwalony. Nagrałeś podcast? Utrwaliłeś. Wyeksportowałeś beat? Utrwaliłeś. Nawet improwizacja na żywo która jest nagrywana – utrwalona.
Po czwarte – niezależnie od sposobu wyrażenia. I tu jest złoto. Prawo nie mówi jak masz tworzyć. Nie mówi że musisz używać Neumann U87 a nie AI. Nie mówi że musisz grać na pianinie a nie generować MIDI. Sposób nie ma znaczenia. Ma znaczenie czy efekt końcowy nosi cechy Twojej twórczości.
Dlaczego cały argument o algorytmach to bzdura
Pracowałem kiedyś z gościem który nagrywał sobie próbki bębna na telefon i robił z tego beaty. Używał darmowego DAW i wtyczek które dostał w bundlu. I ktoś mu powiedział że to nie jest prawdziwa muzyka bo wszystko robią algorytmy kompresorów i EQ.
No kurwa. Serio?
Każdy syntezator to algorytm. Każdy sampler to algorytm przetwarzający próbki. Auto-Tune to algorytm. Melodyne to algorytm. Waves Renaissance Compressor to algorytm napisany w latach 90. Jeśli algorytm odbiera autorstwo to przepraszam bardzo ale ostatni prawdziwy utwór muzyczny powstał może w XVIII wieku na lutni.
Prawda jest taka – w audio od dekad nie chodzi o to czy używasz algorytmów. Chodzi o to czy masz kontrolę nad efektem i czy podejmujesz świadome decyzje.
Kiedy nakładasz kompresję na wokal używasz algorytmu. Ale to TY decydujesz o threshold, ratio, attack i release. To TY słuchasz i mówisz czy brzmi dobrze czy źle. Algorytm przetwarza sygnał według parametrów które TY ustawiłeś.
Z AI jest dokładnie tak samo. Tyle że zamiast suwaka masz prompt.
Gdzie w procesie AI jest człowiek – konkretny przykład
Zobaczmy jak wygląda realna praca. Nie teoria. Praktyka.
Dostałeś zlecenie na podkład muzyczny do podcastu o podróżach. Klient chce coś klimatycznego, etnicznego, ale nowoczesnego. Budget jest jaki jest więc kupowanie licencji na profesjonalną bibliotekę etniczną odpada.
Tradycyjna droga – szukasz darmowych sampli, próbujesz poskładać coś w DAW, gubisz pół dnia na szukaniu odpowiednich brzmień.
Droga z AI – opisujesz klimat, tempo, instrumentację. Generujesz 10 wersji. Słuchasz każdej. Odrzucasz 7 od razu bo nie pasują. Zostają 3. Bierzesz tę najlepszą i zaczynasz prawdziwą pracę.
Eksportujesz multitrack jeśli narzędzie pozwala. Albo bierzesz stereo i zaczynasz kraić, dopasowywać do długości odcinka, robić fade’y, dodawać automację volume żeby podkład nie walczył z głosem, możliwe że dorzucasz swoje elementy – dodatkową perkusję, atmosferę, efekty.
Renderujesz. Słuchasz z nagraniem głosu. Nie pasuje? Wracasz, poprawiasz. Pasuje? Idziesz dalej.
Kto tu jest autorem? Algorytm czy Ty?
Algorytm wypluł kilka wersji bazując na milionach utworów w datasecie. Ale to TY wybrałeś która wersja ma potencjał. TY zdecydowałeś jak ją kroić. TY ustaliłeś jak ma grać z narracją. TY wzięłeś odpowiedzialność za to że to działa i że odbiorca dostanie spójny produkt.
To jest twórczość. I prawo autorskie to widzi.
Rzeczywisty wyrok Sądu Najwyższego który zmienia wszystko
W 2019 roku Sąd Najwyższy wydał wyrok w sprawie III CSK 207/18 który dotyczył autorstwa zdjęć robionych automatycznie przez fotoradar. Sprawa brzmi absurdalnie ale wniosek jest kluczowy.
Sąd stwierdził że nie każde zdjęcie jest utworem. Jeśli proces jest w pełni zautomatyzowany i nie ma w nim twórczego wkładu człowieka to efekt nie podlega ochronie prawno-autorskiej.
Ale – i to jest ważne – jeśli człowiek podejmuje świadome decyzje twórcze, nawet przy użyciu automatycznych narzędzi, autorstwo przysługuje człowiekowi.
Przekładając to na audio z AI:
Jeśli wklejasz prompt napisz mi podkład do podcastu, bierzesz pierwszy wynik i publikujesz – nie masz autorstwa. To jest jak zdjęcie z fotoradaru.
Jeśli iterujesz prompt, testujesz warianty, wybierasz świadomie, dopracowujesz brzmieniowo, miksujesz, masterujesz, dopasowujesz do kontekstu – masz pełne autorstwo. To jest jak fotografia artystyczna zrobiona cyfrówką z automatyką.
Różnica nie leży w narzędziu. Leży w Twoim zaangażowaniu i decyzjach.
Przykład z życia – case który pokazuje gdzie są granice
Znam podcaster który zrobił całą czołówkę w AI. Opisał klimat, gatunek, tempo. Wygenerował track. Wyeksportował stem’y – osobno drums, bass, melodia, harmonia. Wziął te ścieżki do Abletona. Podmienił brzmienie basu na coś cięższego. Dodał własne sample atmosterficzne. Zrobił breakdown w połowie który AI nie przewidziało. Zmienił strukturę – intro było za długie więc je skrócił. Finalnie zrobił mastering żeby całość siedziała z głosem.
To jest autorstwo. Zero wątpliwości.
Teraz druga sytuacja. Ktoś generuje podkład, eksportuje MP3, wrzuca pod nagranie. Koniec. Nie słucha czy pasuje. Nie dopasowuje. Nie personalizuje.
To nie jest autorstwo. To jest używanie gotowca. Dokładnie jak wrzucenie stockowego pliku z biblioteki bez żadnych zmian.
I tu jest clou – prawo nie zabrania używania AI. Prawo zabrania braku twórczego wkładu. A to jest ogromna różnica której połowa internetowych ekspertów nie łapie.
Co z inspiracją i stylem – gdzie jest granica plagiatu
To pytanie wraca jak bumerang. Czy mogę powiedzieć AI żeby zrobiło coś w stylu Pink Floyd? Czy to nie jest kradzież?
Nie. I tu znowu pomaga nam prawo i zdrowy rozsądek.
Styl, gatunek, klimat nie podlegają ochronie. Podlega konkretny utwór.
Możesz tworzyć psychodeliczny rock inspirowany latami 70. Nie możesz skopiować riffów z Shine On You Crazy Diamond.
Możesz robić lofi hip hop w stylu Nujabes. Nie możesz wziąć jego sampli i beatu jeden do jednego.
Możesz nagrywać podcast w konwencji true crime jak Serial. Nie możesz kopiować ich konkretnych narracyjnych rozwiązań nota w notę.
W tradycyjnej produkcji to jest oczywiste. Producenci od lat biorą inspirację ze stylu innych artystów. Cała muzyka ewoluuje przez naśladownictwo i rozwój cudzych pomysłów. Ale zawsze z własnym twistem, własną interpretacją, własnym brzmieniem.
Z AI jest identycznie. Prompt w stylu jazzu manouche to nie plagiat. To wskazanie estetyki. Dopiero konkretne skopiowane frazy melodyczne byłyby problemem.
I szczerze? Większość modeli AI generalnie nie kopiuje konkretnych utworów. Uczą się na ogromnych datasetach i tworzą nowe kombinacje. To jest dokładnie jak producent który słuchał tysiące płyt i ma w głowie estetykę gatunku.
Zagrożenie plagiatu jest wtedy kiedy karmisz AI konkretnym utworem i mówisz zrób to samo ale trochę inaczej. Wtedy wchodzisz na cienki lód. Ale to nie jest wina AI. To jest wina Twojego podejścia.
Konkretny workflow który trzyma Cię po bezpiecznej stronie
Dobra, konkrety. Jak pracować z AI żeby mieć czyste autorstwo i spać spokojnie?
Krok pierwszy – traktuj AI jak asystenta a nie autora. Nigdy nie myśl że AI zrobi wszystko za Ciebie. AI daje bazę, szkic, punkt wyjścia.
Krok drugi – iteruj. Nie bierz pierwszego wyniku. Testuj warianty, porównuj, słuchaj krytycznie. To jest ten moment gdzie zaczyna się Twój wkład twórczy.
Krok trzeci – personalizuj. Zawsze. Nawet jeśli efekt brzmi dobrze od razu, coś w nim zmień. Dopasuj do kontekstu, dodaj swój element, zmień balans, popraw przejścia.
Krok czwarty – dokumentuj. Zachowaj projekt DAW. Zachowaj wersje. Zachowaj ślady swojej pracy. Jeśli kiedykolwiek ktoś zapyta skąd to się wzięło, możesz pokazać proces.
Krok piąty – bierz odpowiedzialność. Publikujesz pod swoim nazwiskiem? To Twoje. Nie AI. Twoje. Jeśli coś jest nie tak – to Twoja wina. Jeśli wyszło świetnie – to Twój sukces.
Ten workflow nie jest teorią. Tak naprawdę pracuję z materiałami które częściowo powstają w AI.
Praktyczny przykład – jak zrobiłem intro do podcastu klienta
Miałem sprawę konkretną. Klient chciał intro – 15 sekund, dynamiczne, z głosem lektora który mówi tytuł podcastu. Budget microscopijny bo startup. Czas – do jutra.
Tradycyjna droga – znalezienie muzyka, brief, oczekiwanie na wersje, korekty, płatność. Minimalnie tydzień.
Co zrobiłem?
Wygenerowałem bazę muzyczną – opisałem że potrzebuję energetyczny electronic pop, 120 BPM, intro musi być mocne od pierwszej sekundy, breakdown po 10 sekundach żeby zrobić miejsce na tytuł głosowy.
Dostałem 8 wariantów. Wybrałem 2 najlepsze. Wziąłem je do DAW. Jeden miał lepsze intro ale gorsze breakdown. Drugi odwrotnie. Skopiowałem intro z pierwszego i breakdown z drugiego. Zrobiłem crossfade. Dodałem kompresję side-chain żeby beat ustępował pod głos. Nagrałem tytuł podcastu. Dopasowałem timing. Zrobiłem mastering żeby całość była głośna ale nie przesterowana.
Finalnie intro które brzmi jakby powstało od zera w studiu. Klient zadowolony. Budget się zgadza. Czas – 3 godziny.
Czy użyłem AI? Tak. Czy AI jest autorem? Nie. Ja jestem autorem. AI dało mi bazę. Ja zrobiłem z niej produkt.
I co najważniejsze – gdyby ktoś zapytał czy mogę powtórzyć ten efekt bez AI, odpowiedź jest tak. Mogę. Tylko że zajęłoby mi to 10 razy więcej czasu i 5 razy więcej pieniędzy klienta.
Czego NIE robić – przykłady które skończą się źle
Są rzeczy które są po prostu głupie i ryzykowne. I widzę je na potęgę.
Przykład jeden – ktoś generuje muzykę, dodaje swoją nazwę jako kompozytor i zgłasza do ZAIKS. Problem – jeśli nie ma realnego wkładu twórczego, to nie jest Twój utwór. ZAIKS może zweryfikować i wyrzucić. A jeśli ktoś złoży skargę może być sprawa o przypisanie sobie nieistniejącego autorstwa.
Przykład dwa – generowanie głosu lektora w AI i sprzedawanie jako usługa lektorska. Problem – klient płaci za Twój głos i Twoją interpretację. Jeśli dostarczysz syntetyczny głos bez ujawnienia tego faktu, to jest oszustwo. Możesz dostać po dupie sądownie i reputacyjnie.
Przykład trzy – generowanie muzyki w stylu konkretnego artysty z użyciem jego imienia i nazwiska w promcie, publikowanie jako swój utwór. Problem – to już może być naruszenie dóbr osobistych artysty i wprowadzenie w błąd odbiorców. Inna sprawa niż styl, to jest bezpośrednie wykorzystanie wizerunku.
Przykład cztery – używanie AI do stworzenia całego audiobooka, zero postprodukcji, zero korekty, publikacja jako profesjonalny produkt. Problem – jakość. Odbiór. Odpowiedzialność za błędy AI. Jeśli system coś źle wymówi albo doda artefakty dźwiękowe, klient będzie miał pretensje do Ciebie, nie do AI.
Wszystkie te przykłady łączy jedno – brak świadomości że narzędzie to nie usprawiedliwienie. Odpowiedzialność zawsze leży po stronie człowieka.
Co to oznacza dla lektorów podcasterów realizatorów – twarda prawda
AI nie zabierze Ci pracy jeśli masz w głowie coś więcej niż tylko mechaniczne umiejętności.
Mechaniczne umiejętności – naciśnięcie record, export, gotowe – to może zastąpić AI lub tani wykonawca z Fiverr. I tak było zawsze, tylko teraz jest to bardziej widoczne.
To co zostaje i co ma wartość to:
Słuch. Umiejętność usłyszenia co jest dobre a co nie.
Kontekst. Wiedza jak dopasować dźwięk do celu, odbiorcy, platformy.
Konsystencja. Umiejętność dostarczania powtarzalnej jakości.
Komunikacja. Rozumienie klienta, tłumaczenie jego potrzeb na dźwięk.
Workflow. Organizacja procesu, terminowość, profesjonalizm.
To są rzeczy których AI nie ma. I nie będzie miało.
Jeśli Twoja wartość to tylko naciśnięcie guzika w DAW – tak, masz problem. Ale to nie jest wina AI. To jest wina braku rozwoju.
Jeśli Twoja wartość to doświadczenie, gust, umiejętność słuchania i tłumaczenia wizji klienta na dźwięk – jesteś bezpieczny. Bo AI może pomóc w procesie ale nie zastąpi tej wartości.
Realistycznie – widzę to tak. AI obniży próg wejścia do produkcji audio. Więcej osób będzie mogło stworzyć coś co brzmi okej. Ale okej to nie jest świetnie. A świetnie to nadal wymaga człowieka który wie co robi.
Pytanie na koniec – czy Ty kontrolujesz narzędzie czy narzędzie kontroluje Ciebie
Bo to jest sedno sprawy. Nie tylko prawne. Filozoficzne.
Kiedy używasz kompresor, wiesz co robisz? Rozumiesz jak threshold wpływa na dźwięk? Słyszysz różnicę między optical a FET? Czy tylko kręcisz gałkami na chybił trafił?
Kiedy używasz AI, wiesz co robisz? Rozumiesz jak prompt wpływa na wynik? Słyszysz różnicę między dobrym a złym generowaniem? Czy tylko wklejasz tekst i bierzesz co wyjdzie?
W obu przypadkach można pracować świadomie albo mechanicznie. I to rozróżnienie decyduje o Twoim autorstwie.
Prawo autorskie chroni Twoją twórczość. Ale twórczość wymaga świadomych decyzji. Wymaga kontroli. Wymaga odpowiedzialności.
AI to narzędzie. Potężne, szybkie, czasem zaskakujące. Ale narzędzie.
Pytanie nie brzmi czy AI zabierze nam autorstwo. Pytanie brzmi czy my będziemy na tyle świadomi żeby to autorstwo obronić.
A Ty jak pracujesz z AI w audio – traktujesz to jak skrót czy jak narzędzie które wymaga Twojego nadzoru i decyzji?