大概七年前買了費南多薩巴特的《對與錯的人生邏輯課》,即使過了很多年,也不間斷的常常翻出來思考,這本書探討的「倫理學」跟我小時候認知不同,作者探討的是如何過好生活,就不能忽略政治與生活息息相關。
所有的倫理框架都是從「自由」開始談起。
人類與其它物種最大的不同,在於我們擁有「自由的意志」。人擁有自我的意志,要不要做一件事,都是自己決定的。從另外一個方面來說,人必須為每一個決定負責任,包含不做選擇的責任。即使身在極權國家,也擁有自由的意志,只是必須與威權抗衡。
去思考如何成為一個好的人,就會衍生出思考「道德」與「倫理」的討論。
道德和倫理,並不是同義詞。「道德」是一個大家普遍認為有效而接受的行為規範的總合;「倫理」則是去思考「為什麼」我們認為這些行為規範有效。
而「倫理學」所探討的,是如何獲得更好的生活、人群之中的生活。想在人群當中過更好的生活,就是你被當作「人」來看待,獲得友誼、尊重,和愛。人們往往用被對待的態度來對待別人,所以如果我們自己想要被當作「人」來看待,首要條件就是我們必須把別人當作「人」來看待。你想要獲得什麼樣的態度,就用這樣的態度對待別人。
努力站在他人的位置上,承認他人是自己的同類,首先意味著從他的內心去理解他的可能性。
思考為什麼我們要做個好人?
我們從同伴身上能夠獲得的最大利益,就是來自於更多自由個體的關聯與友愛,使自己的人性拓展與加強,這是物質換取不來的。
全心投入的生活,好好活著、好好對待別人。
我們都是先成為一個人,之後塑造成不同的意識形態,包含台灣價值。
我們不是一出生就台派,這也不是什麼基因上的某個性狀,這只是一種成長後逐漸養成的意識,而每個人的意識都是包含不同價值觀。
如果你討厭一個人的人品,那他是不是台派又怎樣?
他是先成為這樣人品的人,之後才是台派身分。
所以如果有個人,品行跟妳喜好不同,那跟他個性有關,跟台派無關。
我有禮貌是我的個性,不是因為我是台派。
同理,有人表現差勁,也不能因為他理念台派,就批評整個台派都差勁。別把台派的身分看的太大,忽略了我們都是先成為一個人,在這過程塑造出不同價值觀。
去年發生許多事,所以我發過類似的文,覺得「台派」又被賦予了一個負面標籤,感覺好像回到說台語,講妳是台妹很俗氣一樣,有這樣的聲音,我也有點傷心,因為台灣本土意識在這三十年來不過才慢慢萌芽而已。
大家會稱「菁英藍、知識藍」,但沒聽過有人說「知識綠」,很大部分程度綠在大家心中低了一階,這樣的現象我也很難過。
如果大家被說支持台灣本土政黨等於台派是一件負面的事情的話,那就越來越少人會想作這樣的身分土地認同,那我會想換個說法,我支持反侵略,也以身為台灣人為榮,感謝前輩們為了自由民主付出至今。
希望無論台派、華派、反侵略派、友中派都能一起思考對台灣未來的發展,自決建國以後在國際上發光,與別國自在來往,人民能了解正確的歷史,也就能有更清晰的思路,思考怎麼培育下一代。
#對與錯的人生邏輯課 #自由 #倫理學
延伸閱讀: #道德部落
#台派
隨手附上手繪女兒小時候
隨手可得同義詞 在 台灣物聯網實驗室 IOT Labs Facebook 的精選貼文
演算法界上演“貓鼠遊戲”連續劇,惡意欺騙與人工智慧的博弈已開始
面對惡意演算法欺騙,人工智慧如何反擊?電腦科學家正在多方尋找對策,以便讓人工智慧更安全。
科技日報 2019/07/03 10:15
文 | 科技日報 張夢然
醫療手術、無人駕駛、圍棋對弈、隨手可用的翻譯……近十年來,人工智慧(AI)取得了巨大進步。而這,要得益於人工神經網路的發展。
這一神經網路的模式,效仿的是我們人類的大腦,在大規模應用時,也被稱為深度學習,其能夠自己發現資料的模式,而無需明確指令。
深度學習雖然可以在大資料訓練中學到正確的工作方法,卻也很容易受到惡意干擾。攻擊者們通常會通過輸入惡意資料來欺騙深度學習模型,導致其出現嚴重故障。
面對惡意演算法欺騙,人工智慧如何反擊?英國《自然》網路版日前的報導稱,現在,電腦科學家正在多方尋找對策,以便讓人工智慧更安全。
AI:我因“學習”而受傷
“學習”,是人工智慧的核心,也是使計算機具有智慧的根本途徑。
深度學習的主旨,是讓電腦去類比或實現人類的學習行為,以獲取新的知識或技能,並重新組織已有的知識結構,使之不斷改善自身的性能。
但同時,深度學習演算法的不可預測性,使其需要不斷挖掘。
對於家庭和個人手機來說,虛擬智慧化助理的應用越普遍,惡意攻擊就越可能隨時發生。有些資訊眼看、耳聽都沒有問題,卻能“暗藏殺機”——隱藏著劫持設備的指令。
舉例來說,人工智慧“看”圖像的模式,和人類的肉眼大不一樣。通過微妙改變圖像的某些部分,再輸入後的圖片即使肉眼看來一模一樣,電腦看起來卻大不相同。這就叫對抗性示例。
除了圖像,聲音也會有同樣的問題,只要修改了一個語音片段,人工智慧就可能修改成完全不同的語音指令。
無需隱身,也能抓住攻擊者
不過,在不久前召開的國際學習表徵會議(ICLR)上,美國伊利諾大學香檳分校的電腦科學家拿出了一種對抗攻擊的方法。
他們編寫的演算法可以轉錄完整的音訊以及單個片段。如果單個片段轉錄出來和完整音訊中的對應部分不完全匹配,那麼演算法會立即用一面小紅旗做出標記,表明音訊樣本可能已遭攻擊。
在攻擊測試中,面對幾種不同類型的修改,該演算法幾乎都檢測到了異常情況。此外,即使攻擊者已經瞭解到有防禦系統的存在,大多數情況下還是會被抓住。
這套演算法擁有令人驚訝的穩定性。谷歌大腦團隊的科學家尼古拉斯•卡林尼評價稱,其最具吸引力之處在於它的“簡單”。另有與會專家認為,隨著對抗性攻擊越來越常見,谷歌助手、亞馬遜和蘋果等服務,都應當應用這種防禦系統。
然而,攻擊和防禦之間,註定是一場持久的“貓鼠遊戲”。卡林尼表示:“我毫不懷疑有人已經在研究如何攻擊這種防禦系統了。”
提前演練,對攻擊免疫
也有的研究團隊在另闢蹊徑。
就在本周,澳大利亞聯邦科學與工業研究組織下屬團隊公開了一套演算法,其通過效仿疫苗接種的思路,幫助人工智慧“修煉”出抗干擾能力。
所謂“疫苗演算法”,就是在識別圖片時,能夠對圖片集合進行微小的修改或使其失真,以激發學習模型“領會”到越來越強的抗干擾能力,並形成相關的自我抗干擾訓練模型。經過此類小規模的失真訓練後,最終的抗干擾訓練模型將更加強大,當真正的攻擊到來之時,機器學習模型將具備“免疫”功能。
這其實是針對深度學習模型專門打造的訓練。因為它會“學習”,所以也會學著糾錯。
郵件篩檢程式:效果不盡人意
郵件篩檢程式真的已經很努力了,但效果並不盡如人意。
這是因為防禦與攻擊總是相伴相生。隨著漏洞越來越多的被察覺,人工智慧擁有更多的防禦能力,惡意攻擊也在不斷進階。
在4月召開的美國系統和機器學習大會(SysML)上,德克薩斯大學奧斯丁分校的電腦科學家們揭示了機器學習演算法在文本理解方面的漏洞。
有些人認為文本不容易被攻擊,因為惡意欺騙可以對圖像或聲音波形進行微調,但改變任何文字都會被察覺。可科學家告訴我們不是這樣。
惡意攻擊會瞄準一些同義詞,文本含義不發生改變,但深度學習演算法卻可能因此而判斷錯誤——垃圾郵件成了安全的,假新聞被合法推送。
科學家們演示了一套惡意攻擊程式,它甚至會檢測文本分類器在判斷是否含有惡意時,最依賴的是哪些詞語。接著,它挑選出關鍵字的同義詞,替換,然後飛速開始測試下一個關鍵字。在這套演算法攻擊下,篩檢程式的準確率急劇下降。
不過,將這些手段公諸於眾,究竟可以提高防禦能力,還是會加劇攻擊手段,目前仍有爭議。此前,已經有AI實驗室拒絕公開一種攻擊演算法,因為擔心它被濫用。
資料來源:https://www.jiemian.com/article/3273741.html
隨手可得同義詞 在 標註自由 - 莊博安諮商心理師 Facebook 的最佳貼文
想起幾天前和督導討論時的一段話:除了協助較沒有自信、無能力者充權(empower)之外,同樣重要的是,充權有能力者,讓他們發揮影響力,協助提升較無能力者的能力。
「善」是個神奇的概念,和道德、良心、倫理等等或許是同義詞。
這都在你做過某些事情後,將緊緊跟隨你的無意識。
無論是亂丟垃圾、偷拿錢、殺人放火,或是把一條毛毛蟲從路邊移到旁邊、有能力時捐一筆錢、關懷他人與自己。
我相信這些事情不只是神秘的因果報應。就心理層面來說,它會潛移默化地改變你的性格、你看待事物的方式、還有你最終做出什麼決定。
而這些決定,也預測了你未來的命運。
【要對自己的影響力有所體認】
現在課程的最後一頁,我都是放這張。
希望每一個在課程上學會使用工具的人,有朝一日能夠利用工具,練成自己的能力。
但是身為打造工具的人,總是有這一點祈許。
希望這工具,是打造出來幫助人的。
做出好菜刀的工匠,應該是希望拿到這把菜刀的人,能夠料理出好餐點,讓人幸福。
而不是拿去傷害人。
做出球棒的人,應該是希望這球棒能夠在球場上揮出全壘打,能夠帶給大家勝利的喜悅。
而不是敲在別人身上。
身為各行業的專業,都該知道自己的專業,應該是用來幫助人,雖然有時候可以事與願違,但起碼我們不刻意去傷害人。
別糟蹋上天給了你這份長才,也別讓每一個工具背負上惡名。
如果那一天,你擁有了呼風喚雨的能力,能夠隨手掀起一陣波瀾,隨意信手捻滅一個生息。
那請記得,將風吹到酷熱的人身上,讓焦熟的心獲得暫時的舒緩。
將雨降臨到乾枯的土地上,讓寸草不生的領域有春風撫生的機會。
這時代話語權,總有可能落到你身上的機會。
而你永遠可以選擇,自己要說什麼,怎麼寫。
怎麼幫助人。
#文字有力量
#每個閱讀背後都是心
#很厲害不要去傷害
#當一個溫暖的人
隨手可得同義詞 在 【字言字語】曾鈺成—「唾」手可得 - YouTube 的推薦與評價
大家都知道唾液即口水,而帶有「唾」字的成語,較為常用的是「唾手可得」,即極容易得到的意思,亦有人寫為「垂手可得」,其實兩個寫法的意思也一樣, ... ... <看更多>