Jeg har en liten samling av "programvaredefinert RF-lab" -utstyr, spesielt en HackRF og en VNWA3. Jeg er nesten ferdig med å bygge en 35 W HF-forsterker, og når jeg har gjort noen andre tester, vil jeg se på spekteret av den endelige utgangen som helhet.
Det mest naturlige verktøyet for denne jobben ville være en spektrumanalysator, selvfølgelig, men noen av mine SDR-mottakere og / eller VNA skal også kunne samle spektrumdata. Problemet er: alt utstyret mitt er rangert for innspill i ballparken på 0 dBm, dvs. milliwatt eller mindre. Det ser ut til og med at en "ekte" spektrumanalysator som inngangsnivået Rigol DSA815-TG har inngangsverdier rundt +20 dBm (100 milliwatt).
Som forberedelse til et nytt prosjekt der jeg vil diagnostisere et ~ 5W signal, kjøpte jeg en håndfull SMA dempere. De større dB-drop-ene har varmeavleder og er vurdert til 5W - så jeg burde være i stand til å koble "enheten min under test" for dette andre prosjektet direkte til utstyret mitt gjennom dempere.
Men hvordan ville en gang om å måle spekteret til et 35W signal? Eller 1500W og utover for den saks skyld! Jeg kan ta feil, men jeg får inntrykk av at inline dempere IKKE er en vanlig metode forbi et visst effektnivå.
Hvordan måles høyspenningssignaler vanligvis i en profesjonell RF-laboratorieinnstilling? Hvordan kan jeg gå frem for å karakterisere signalene mine med mer typisk amatøroperatørutstyr? Si, mellom forsterkeren min og en dummybelastning og en SDR, hva er en god måte å koble / koble dem til, slik at jeg kan få et kjent - eller i det minste "kjent å være trygt" - signalnivå i noe spektrumanalyseprogramvare ?