Pak orë pas takimit midis OpenAI dhe Garantuesit të Privatësisë, kompania amerikane publikoi një letër të hapur në faqen e saj të internetit, në të cilën shpjegon “qasjen e saj të inteligjencës artificiale ndaj sigurisë”, për të larguar të gjitha dyshimet e ngritura nga përdoruesit.
sigurt”, zhvilluesit theksojnë se si mjetet e vëna në dispozicion të përdoruesve “si çdo teknologji përfshijnë rreziqe reale, kështu që ne punojmë për të siguruar që siguria është e integruar në sistemin tonë në të gjitha nivelet”.
Kompania thekson gjithashtu se “përpara se të lëshojmë ndonjë sistem të ri, ne kryejmë testime rigoroze, angazhojmë ekspertë të jashtëm për reagime, punojmë për të përmirësuar sjelljen e modelit me teknika të tilla si të mësuarit përforcues me reagime njerëzore dhe ndërtojmë sisteme të gjera sigurie dhe monitorimi. “.
Rëndësi e veçantë i kushtohet të dhënave dhe privatësisë. Në këtë drejtim, OpenAI thekson se asnjë e dhënë nuk përdoret për të shitur shërbime, aq më pak për qëllime reklamimi apo për të profilizuar njerëzit. Përkundrazi, ky informacion përdoret për të “i bërë modelet tona më të dobishme dhe ChatGPT përmirësohet me bisedat që ka me përdoruesit çdo herë”.
“Modelet tona të mëdha gjuhësore janë trajnuar në një pjesë të madhe teksti që përfshin përmbajtje të disponueshme publikisht, përmbajtje të licencuar dhe përmbajtje të krijuar nga recensues njerëzorë,” vazhdon letra.
This is a companion discussion topic for the original entry at https://zero1.al/2023/04/07/openai-leter-e-hapur-per-chatgpt-ne-nuk-i-profilizojme-njerezit/