Problemet med Googles kunstige intelligens: det er kommet til live

Intelligencia Artifial Google cobra vida

AI'er bruges i stigende grad i teknologiske platforme, og selvom de er ret nyttige til alt, hvad de kan, har de nogle gange også nogle problemer. For eksempel, der er for nylig opstået et problem med en Google Artificial Intelligence, der er kommet til live, da den ser ud til at have en samvittighed og er følsom.

Googles kunstige intelligens kommer til live (og de vil ikke have, at du skal vide det)

AI'er er meget nyttige, for blandt så mange hjælpeprogrammer tjener nogle til at forbedre ydeevnen af ​​apps, og andre hjælper dig endda i dine jobsamtaler. Nu, Google er en platform, der ofte bruger kunstig intelligens .

Ikke desto mindre, ikke alle Googles kunstige intelligenser opfører sig, som virksomheden ønsker . Faktisk fyrede Google for nylig en af ​​sine ingeniører for at offentliggøre, at en platform AI havde formået at være lydhør.

Blake Lemoine er navnet på den ingeniør, som Google fyrede, og som tilsyneladende opdagede hvordan en Google AI kaldet LaMDA blev sansende og sansende. Lemoine testede, om en kunstig intelligens genererede diskriminerende sprog og blev overrasket, da den genererede beskeder om robotteknologiens etik og dens egne rettigheder.

Kort efter udgav Lemoine en Medium-artikel kaldet Er MDA opmærksom? I Blake Lemoines indlæg, nogle af de samtaler Lemoine havde med LaMDA, Googles AI , er transskriberet. Hvis du er interesseret i at vide, hvad Lemoine og LaMDA talte om, så klik på følgende link:

Læs | Artikel: Er LaMDA opmærksom?

Nu, hvis du undrer dig over, hvorfor Google fyrede Blake Lemoine, bør du vide det virksomheden hævder, at ingeniøren har overtrådt sine fortrolighedspolitikker . Google annoncerede LaMDA offentligt i 2021, og med denne AI håbede de at forbedre samtaler mellem mennesker og samtaleassistenter.

På den anden side, fra Google angiver de, at der ikke er beviser for, at LaMDA virkelig er klar over det . Så ifølge Google er Lemoines påstande ikke understøttet af faktiske fakta. Derudover sagde en Google-talsmand, at AI-systemerne efterligner de sætninger, som nogle mennesker bruger, og får dem til at se ud, som om de var rigtige mennesker.

Faktisk foreslår nogle forskere det at sammenligne overbevisende skriftlige svar med følsomhed og samvittighedsfuldhed er ikke korrekt . Ligeledes indikerer andre specialister, at spørgsmålet om LaMDA's formodede samvittighed har afledt opmærksomheden fra nogle vigtigere etiske spørgsmål.

Og dig… hvad synes du?