singulariteten är den hypotetiska framtida skapandet av superintelligenta maskiner. Superintelligens definieras som en tekniskt skapad kognitiv kapacitet långt utöver det som är möjligt för människor. Om singulariteten skulle uppstå kommer tekniken att utvecklas bortom vår förmåga att förutse eller kontrollera dess resultat och världen kommer att omvandlas till oigenkännlighet genom tillämpning av superintelligens på människor och/eller mänskliga problem, inklusive fattigdom, sjukdom och dödlighet.,
revolutioner inom genetik, nanoteknik och robotik (GNR) under första hälften av 2000-talet förväntas lägga grunden för singulariteten. Enligt Singularitetsteori kommer superintelligens att utvecklas av självstyrda datorer och öka exponentiellt snarare än stegvis.,
Lev Grossman förklarar de potentiella exponentiella kapacitetsvinsterna som superintelligent-maskinerna har aktiverat i en artikel i tid:
”deras utvecklingsgrad skulle också fortsätta att öka, eftersom de skulle ta över sin egen utveckling från sina långsammare tänkande mänskliga skapare. Föreställ dig en datavetare som själv var en superintelligent dator. Det skulle fungera otroligt snabbt. Det kan dra på enorma mängder data utan ansträngning. Det skulle inte ens ta raster…,”
föreslagna mekanismer för att lägga till superintelligens till människor inkluderar hjärndatorgränssnitt, biologisk förändring av hjärnan, artificiell intelligens (AI) hjärnimplantat och genteknik. Post-singularitet, mänskligheten och världen skulle vara ganska annorlunda. En människa kan potentiellt skanna sitt medvetande i en dator och leva evigt i virtuell verklighet eller som en kännande robot., Futurister som Ray Kurzweil (författare till singulariteten är nära) har förutspått att människor i en post-Singularitets Värld normalt skulle leva mycket av tiden i virtuell verklighet-vilket skulle vara praktiskt taget oskiljbart från normal verklighet. Kurzweil förutspår, baserat på matematiska beräkningar av exponentiell teknisk utveckling, att singulariteten kommer att passera 2045.
de flesta argument mot möjligheten till singularitet innebär tvivel om att datorer någonsin kan bli intelligenta i mänsklig mening., Den mänskliga hjärnan och kognitiva processer kan helt enkelt vara mer komplex än en dator kan vara. Dessutom, eftersom den mänskliga hjärnan är analog, med teoretiskt oändliga värden för någon process, tror vissa att det aldrig kan replikeras i ett digitalt format. Vissa teoretiker påpekar också att singulariteten kanske inte ens är önskvärd ur ett mänskligt perspektiv eftersom det inte finns någon anledning att anta att en superintelligens skulle se värde i exempelvis människans fortsatta existens eller välbefinnande.,
science-fiction-författaren Vernor Vinge använde först termen singulariteten i detta sammanhang på 1980-talet, när han använde den med hänvisning till den brittiska matematikern I. J. Good ’ s koncept om en ”intelligensexplosion” som uppstod genom tillkomsten av superintelligenta maskiner. Termen lånas från fysik; i det sammanhanget är en singularitet en punkt där de kända fysiska lagarna upphör att gälla.