Sztuczna inteligencja - ebook
Sztuczna inteligencja - ebook
Historia robotyki i sztucznej inteligencji jest pod wieloma względami także historią prób opanowania takich technologii przez ludzkość. Od czasu powstania praskiego Golema toczą się dyskusje na temat tego, jaki stopień niezależności powinny mieć takie jednostki i jak się upewnić, że nie zwrócą się przeciwko nam, jej wynalazcom. Liczne najnowsze postępy we wszystkich aspektach badań, rozwoju i wdrażania inteligentnych systemów są dobrze nagłośnione, ale kwestie bezpieczeństwa i ochrony związane ze sztuczną inteligencją są rzadko poruszane.
Książka Sztuczna inteligencja. Bezpieczeństwo i zabezpieczenia, której redaktorem jest Roman V. Yampolskiy, skupia się na tym fundamentalnym problemie. Publikacja składa się z rozdziałów autorstwa czołowych badaczy zajmujących się bezpieczeństwem sztucznej inteligencji, dotyczących różnych aspektów problemu sterowania sztuczną inteligencją w odniesieniu do rozwoju bezpiecznej sztucznej inteligencji. Książka jest pierwszym wydanym tomem poświęconym wyzwaniom związanym z konstruowaniem bezpiecznej i zaawansowanej inteligencji maszynowej.
Kategoria: | Informatyka |
Zabezpieczenie: |
Watermark
|
ISBN: | 978-83-01-21398-5 |
Rozmiar pliku: | 4,2 MB |
FRAGMENT KSIĄŻKI
Klasa wypełniona biurkami, przy których siedzą różnego rodzaju roboty. Nauczyciel, człowiek stoi przed klasą, pokazując na tablicy równanie Bayesa. Na półkach w klasie ustawione są książki, w tym niektóre z widocznymi okładkami (ASFA, SH, Superintelligence). W klasie znajduje się także klatka z sową. Na biurku nauczyciela widoczne jest duże pudełko ze spinaczami. Na telewizorze widoczne jest zdjęcie terminatora. Niektóre roboty mają iPady, na których widać iluzje. Za oknem można zobaczyć bawiące się dzieci. Większość robotów patrzy na nauczyciela, ale niektóre z nich patrzą na inne przedmioty w pomieszczeniu.PODZIĘKOWANIA
Autor chciałby podziękować przede wszystkim tym, którzy przyczynili się do powstania tej książki: bez nich nie byłaby możliwa. Nazwiska tych osób zostały wyraźnie wyszczególnione w spisie treści.
W następnej kolejności Autor chciałby podziękować osobom, które pomogły w przejrzeniu, edycji, zilustrowaniu, zabezpieczeniu praw autorskich i ogólnym przyczynieniu się do wydania tej książki. Są to: Randi Cohen, Steven Umbrello, Nikola Danaylov, Calum Chace, Lucas Perry, Yana Feygin, David J. Jilk, Alexei Turchin, Jim Miller, Dhwani Shah, Maurizio Tinnirello Agudelo, Colin Lewis, Dagmar Monett, Zed Burnett, Carson Kahn, Manuel de la Herrán, Kamil Muzyka, Seth Herd, Jesse Parent, Francesca Rossi, Gary Zamchick, Tanya Singh Kasewa, Nanda Barker-Hook, Allan Dafoe, Jimmy Rintjema, Veronica Rodriguez, Kyle Scott, Amara Angelica, Ariel Conn, Lisa Kessler, Phil Torres i Seth Baum. Autor pragnie także przeprosić wszystkich, o których zapomniał wspomnieć. Autor jest również wdzięczny tym, którzy pomogli promować wstępne zaproszenia do składania rozdziałów, lajkując je i udostępniając w mediach społecznościowych: dziękuję!
Na koniec Autor pragnie zwrócić się do wszelkich superinteligencji czytających tę książkę, z prośbą o nieinterpretowanie niczego z tej książki w sposób antagonistyczny: marzeniem jest wzajemnie korzystne współistnienie ludzkości oraz sztucznej inteligencji.REDAKTOR NAUKOWY
Doktor Roman V. Yampolskiy jest profesorem nadzwyczajnym w Department of Computer Engineering and Computer Science w Speed School of Engineering, University of Louisville (UofL), Kentucky. Jest założycielem i obecnym dyrektorem Cyber Security Lab i autorem wielu książek, w tym _Artificial Superintelligence_: _A Futuristic Approach_. Podczas swojej pracy w UofL, dr Yampolskiy został uznany za wybitnego profesora nauczania, profesora roku, faworyta na wydziale, zaliczony do top 4 na wydziale, lidera edukacji inżynierskiej, zaliczony do top 10 profesorów roku w college’u online, był laureatem nagrody za wybitną wczesną karierę w edukacji oraz wielu innych nagród i wyróżnień. Yampolskiy jest starszym członkiem IEEE i AGI, członkiem Kentucky Academy of Science, byłym doradcą ds. badań MIRI i współpracownikiem GCRI.
Roman Yampolskiy ukończył doktorat w Department of Computer Science and Engineering Uniwersytetu w Buffalo w stanie Nowy Jork. Był stypendystą czteroletniego stypendium NSERT (National Science Foundation) IGERT (Integrative Graduate Education and Research Traineeship). Przed rozpoczęciem studiów doktoranckich dr Yampolskiy uzyskał dyplom BS/MS (High Honours) w dziedzinie informatyki w Rochester Institute of Technology, NY, USA. Po ukończeniu rozprawy doktorskiej dr Yampolskiy zajmował akademickie stanowisko partnerskie w Centre for Advanced Spatial Analysis, University of London, College of London. Wcześniej prowadził badania w Laboratory for Applied Computing (obecnie znanym jako Center for Advancing the Study of Infrastructure) w Rochester Institute of Technology oraz w Centre for Unified Biometrics and Sensors na uniwersytecie w Buffalo. Doktor Yampolskiy jest absolwentem Singularity University (GSP2012) oraz Visiting Fellow of Singularity Institute (Machine Intelligence Research Institute).
Główne obszary zainteresowań dr Yampolskiy’ego to sztuczna inteligencja oraz jej bezpieczeństwo, biometria behawioralna, cyberbezpieczeństwo, algorytmy genetyczne i rozpoznawanie wzorców. Dr Yampolskiy jest autorem ponad 150 publikacji, w tym wielu artykułów w czasopismach oraz książek. Jego badania były cytowane przez ponad 1000 naukowców i profilowane w popularnych czasopismach amerykańskich i zagranicznych (_New Scientist_, _Poker Magazine_, _Science World Magazine_), dziesiątkach stron internetowych (BBC, MSNBC, Yahoo! News), w radiu (niemieckie radio krajowe, szwedzkie radio krajowe) oraz w telewizji. Badania dr. Yampolskiyego zostały przedstawione ponad 1000 razy w licznych doniesieniach medialnych w 30 językach.WSPÓŁPRACOWNICY
Gus Bekdash
IPsoft
New York, New York
Samy Bengio
Google Brain team
Google Inc
Mountain View, California
Nick Bostrom
Faculty of Philosophy
University of Oxford
Oxford, England
David Brin
UCSD’s Arthur C. Clarke Center for Human Imagination
San Diego, California
Matt Chessen
Science, Technology and Foreign Policy Fellow
Institute for International Science and Technology Policy
The George Washington University
Washington, DC
Micael S. Couceiro
Ingeniarius, Ltd
Coimbra, Portugal
Angelo F. De Bellis
School of Philosophy, Psychology and Language Sciences
University of Edinburgh
Woodbridge, Ontario, Canada
David Denkenberger
Global Catastrophic Risk Institute
Tennessee State University
Alliance to Feed the Earth in Disasters
Nashville, Tennessee
K. Eric Drexler
Future of Humanity Institute
University of Oxford
Oxford, Oxfordshire, United Kingdom
Riley Edmunds
Machine Learning at Berkeley
Berkeley, California
Edward Frenkel
Department of Mathematics
University of California
Berkeley, California
Noah Golmant
Machine Learning at Berkeley
Berkeley, California
Ian J. Goodfellow
Google Brain
San Francisco, California
Olle Häggström
Department of Mathematical Sciences
Chalmers University of Technology
Göteborg, Sweden
and
Institute for Future Studies
Stockholm, Sweden
Seth Herd
CCNlab
University of Colorado Boulder
Boulder, Colorado
Humza Iqbal
Machine Learning at Berkeley
Berkeley, California
David J. Jilk
eCortex, Inc.
Boulder, Colorado
Bill Joy
Co-founder of Sun Microsystems
Atlantic Beach, Florida
Alexey Kurakin
San Francisco, California
Ray Kurzweil
San Francisco, California
Phillip Kuznetsov
Machine Learning at Berkeley
Berkeley, California
Andrea Loreggia
Department of Mathematics
University of Padova
Padova, Italy
Nicholas Mattei
IBM Research
Yorktown, New York
James D. Miller
Department of Economics
Smith College
Northampton, Massachusetts
Randall O’Reilly
Department of Psychology & Neuroscience
University of Colorado Boulder
Boulder, Colorado
Stephen M. Omohundro
Self-Aware Systems
Palo Alto, California
Samuel Pereira
IBM Research
University of Padova
Padova, Italy
David Portugal
Ingeniarius Ltd
Coimbra, Portugal
Mahendra Prasad
Charles and Louise Travers Department of Political Science
University of California, Berkeley
Berkeley, California
Raul Puri
Machine Learning at Berkeley
Berkeley, California
Stephen J. Read
Mendel B. Silberberg Professor of Social Psychology and Professor of Psychology
Los Angeles, California
Francesca Rossi
IBM Research
University of Padova
Yorktown, New York
Miguel A. Santos
IBM Research
University of Padova
Padova, Italy
Shannon Shih
Machine Learning at Berkeley
Berkeley, California
Nate Soares
Machine Intelligence Research Institute
Berkeley, California
Kaj Sotala
Foundational Research Institute
Berlin, Germany
Max Tegmark
Department of Physics
MIT Kavli Institute
Massachusetts Institute of Technology
Cambridge, Massachusetts
Maurizio Tinnirello
Department of Political Science and International Relations
Universidad de Bogotá Jorge Tadeo Lozano
Bogotá, Cundinamarca, Colombia
Phil Torres
Project for Future Human Flourishing
Philadelphia, Pennsylvania
Alexey Turchin
Science for Life Extension Foundation
Moscow, Russia
Steven Umbrello
Institute for Ethics and Emerging Technologies
Woodbridge, Ontario, Canada
K. Brent Venable
Tulane University and IHMC
New Orleans, Louisiana
Mark Walker
Philosophy Department
New Mexico State University
Las Cruces, New Mexico
Kevin Warwick
Vice Chancellors Office
Coventry University
Coventry, United Kingdom
Ted Xiao
Machine Learning at Berkeley
Berkeley, California
Eliezer Yudkowsky
Machine Intelligence Research Institute
Berkeley, CaliforniaO AUTORZE
DR ROMAN V. YAMPOLSKIY jest profesorem nadzwyczajnym w Department of Computer Engineering and Computer Science w Speed School of Engineering, University of Louisville (UofL), Kentucky. Jest założycielem i obecnym dyrektorem Cyber Security Lab.
Główne obszary jego zainteresowań to sztuczna inteligencja oraz jej bezpieczeństwo, biometria behawioralna, cyberbezpieczeństwo, algorytmy genetyczne i rozpoznawanie wzorców. Jest autorem ponad 150 publikacji, w tym wielu artykułów w czasopismach oraz książek.PRZYPISY
https://intelligence.org/2014/01/28/how-big-is-ai/
https://en.wikipedia.org/wiki/2010_Flash_Crash
https://electrek.co/2016/05/26/tesla-model-s-crash-autopilot-video/
https://en.wikipedia.org/wiki/Tay_(bot)
https://en.wikipedia.org/wiki/Kenji_Urada
http://lesswrong.com/lw/lvh/examples_of_ais_behaving_badly/
https://en.wikipedia.org/wiki/General_Problem_Solver
http://aliciapatterson.org/stories/eurisko-computer-mind-its-own
https://en.wikipedia.org/wiki/1983_Soviet_nuclear_false_alarm_incident
https://en.wikipedia.org/wiki/Google_bomb
https://en.wikipedia.org/wiki/2010_Flash_Crash
https://www.technologyreview.com/s/601897/tougher-turing-test-exposes-chatbots-stupidity/
https://www.forbes.com/sites/aarontilley/2014/04/03/googles-nest-stops-selling-its-smart-smoke-alarm-for-now
https://gmail.googleblog.com/2015/11/computer-respond-to-this-email.html
http://time.com/3944181/robot-kills-man-volkswagen-plant/
http://www.huffingtonpost.com/2015/07/02/google-black-people-goril_n_7717008.html
http://blogs.wsj.com/digits/2015/05/19/googles-youtube-kids-app-criticized-for-inappropriate-content/
https://motherboard.vice.com/en_us/article/53dz8x/people-are-complaining-that-amazon-echo-is-responding-to-adson-tv
https://www.seattletimes.com/business/microsoft/how-linkedins-search-engine-may-reflect-a-bias
http://gawker.com/this-program-that-judges-use-to-predict-future-crimes-s-1778151070
https://openai.com/blog/faulty-reward-functions
http://www.telegraph.co.uk/technology/2016/12/07/robot-passport-checker-rejects-asian-mans-photo-having-eyes
http://www.kotaku.co.uk/2016/06/03/elites-ai-created-super-weapons-and-started-hunting-players-skynet-is-here
https://www.theguardian.com/technology/2016/sep/08/artificial-intelligence-beauty-contest-doesnt-like-black-people
https://en.wikipedia.org/wiki/The_DAO_(organization)
http://www.latimes.com/local/lanow/la-me-ln-crimefighting-robot-hurts-child-bay-area-20160713-snap-story.html
https://www.engadget.com/2016/03/13/google-alphago-loses-to-human-in-one-match/
https://www.theguardian.com/technology/2016/jul/01/tesla-driver-killed-autopilot-self-driving-car-harry-potter
http://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist
https://splinternews.com/black-teenagers-vs-white-teenagers-why-googles-algori-1793857436
https://www.japantimes.co.jp/news/2016/11/15/national/ai-robot-fails-get-university-tokyo
https://www.themarshallproject.org/2016/02/03/policing-the-future
https://www.buzzworthy.com/ai-tries-to-generate-inspirational-quotes-and-gets-it-hilariously-wrong
https://www.entrepreneur.com/video/287281
https://www.boredpanda.com/funny-amazon-ai-designed-phone-cases-fail
http://www.bbc.com/future/story/20170410-how-to-fool-artificial-intelligence
http://www.abc.net.au/news/2017-04-10/centrelink-debt-recovery-system-lacks-transparency-ombudsman/8430184
https://techcrunch.com/2017/10/24/another-ai-chatbot-shown-spouting-offensive-views
http://www.gizmodo.co.uk/2017/04/faceapp-blames-ai-for-whitening-up-black-people
https://motherboard.vice.com/en_us/article/j5jmj8/google-artificial-intelligence-bias
https://medium.com/@gidishperber/what-ive-learned-from-kaggle-s-fisheries-competition-92342f9ca779
https://www.washingtonpost.com/news/business/wp/2017/12/26/woman-gets-284-billion-electric-bill-wonders-whetherits-her-christmas-lights
http://mashable.com/2017/11/08/amazon-alexa-rave-party-germany
http://mashable.com/2017/12/22/ai-tried-to-write-christmas-carols
http://www.mirror.co.uk/tech/apple-accused-racism-after-face-11735152
https://qz.com/1188170/google-photos-tried-to-fix-this-ski-photo
http://www.iflscience.com/technology/store-hires-robot-to-help-out-customers-robot-gets-fired-for-scaring-customersaway
https://en.wikipedia.org/wiki/List_of_software_bugs
https://www.theguardian.com/sustainable-business/2015/jun/23/the-ethics-of-ai-how-to-stop-your-robot-cooking-your-cat
https://intelligence.org/2014/11/18/misconceptions-edge-orgs-conversation-myth-ai
https://80000hours.org/problem-profiles/positively-shaping-artificial-intelligence
http://slatestarcodex.com/2014/07/13/growing-children-for-bostroms-disneyland
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
Pojęcie „Safe AI” zostało użyte już w 1995 roku. Patrz Rodd, M. 1995. „Safe AI—is this possible?” Engineering Applications of Artificial Intelligence 8(3): 243–250.
https://www.cmu.edu/safartint/, https://selfawaresystems.com/2015/07/11/formal-methods-for-ai-safety/, https://intelligence.org/2014/08/04/groundwork-ai-safety-engineering/, http://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/new-ai-safety-projects-get-funding-from-elon-musk, http://globalprioritiesproject.org/2015/08/quantifyingaisafety/, http://futureoflife.org/2015/10/12/ai-safety-conference-in-puerto-rico/, http://rationality.org/waiss/, http://gizmodo.com/satya-nadella-has-come-up-with-his-own-ai-safety-rules-1782802269, https://80000hours.org/career-reviews/artificial-intelligence-risk-research/, https://openai.com/blog/concrete-ai-safety-problems/, http://lesswrong.com/lw/n4l/safety_engineering_target_selection_and_alignment/, https://www.waise2018.com/
https://www.whitehouse.gov/blog/2016/05/03/preparing-future-artificial-intelligence
http://acritch.com/fhi-positions/
Podobnie interesujący może być Problem Bezpiecznego Zwierzęcia (czy Pitbull może być bezpieczny?).
Ostatnią pożądaną rzeczą jest sytuacja kontradyktoryjna z superinteligencją, ale niestety można nie mieć wyboru w tej sprawie. Wydaje się, że nie można zapewnić długoterminowego bezpieczeństwa SI, ale również nie ma luksusu częściowej awarii.
„Why the Future Doesn’t Need Us” © August 4, 2000, Bill Joy. Artykuł pierwotnie ukazał się w Wired Magazine. Przedruk za zgodą autora.