Please use this identifier to cite or link to this item: https://hdl.handle.net/11147/10999
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorTekir, Selma-
dc.contributor.authorAtik, Ceren-
dc.date.accessioned2021-07-04T09:36:08Z-
dc.date.available2021-07-04T09:36:08Z-
dc.date.issued2020-07en_US
dc.identifier.citationAtik, C. (2020). A language modeling approach to detect bias. Unpublished master's thesis, İzmir Institute of Technology, İzmir, Turkeyen_US
dc.identifier.urihttps://hdl.handle.net/11147/10999-
dc.descriptionThesis (Master)--Izmir Institute of Technology, Computer Engineering, Izmir, 2020en_US
dc.descriptionIncludes bibliographical references (leaves: 39-41)en_US
dc.descriptionText in English; Abstract: Turkish and Englishen_US
dc.description.abstractTechnology is developing day by day and is involved in every area of our lives. Technological innovations such as artificial intelligence can strengthen social biases that already exist in society, regardless of the developers' intentions. Therefore, researchers should be aware of this ethical issue. In this thesis, the effect of gender bias, which is one of the social biases, on occupation classification is investigated. For this, a new dataset was created by collecting obituaries from the New York Times website and they were handled in two different versions, with and without gender indicators. Since occupation and gender are independent variables, gender indicators should not have an impact on the occupation prediction of models. In this context, in order to investigate gender bias on occupation estimation, a model in which occupation and gender are learned together is evaluated as well as models that make only occupation classification are evaluated. The results obtained from models state that gender bias has a role in classification occupation.en_US
dc.description.abstractTeknoloji günden güne gelişerek hayatımızın her alanına dahil olmaktadır. Yapay zekâ gibi teknolojik yenilikler, geliştiricilerin niyetlerinden bağımsız olarak toplumda zaten var olan sosyal önyargıları güçlendirebilir. Bu nedenle, araştırmacılar bu etik sorunun farkında olmalıdır. Bu tez çalışmasında, sosyal önyargılardan biri olan cinsiyet yanlılığının meslek sınıflandırması üzerindeki etkisi araştırılmaktadır. Bunun için New York Times web sitesinden anma yazıları toplanarak yeni bir veri kümesi oluşturulmuş ve bu anma yazıları cinsiyet göstergeleri dahil ve hariç olmak üzere iki farklı versiyonuyla ele alınmıştır. Meslek ve cinsiyet birbirinden bağımsız değişkenler olduğu için cinsiyet göstergelerinin modellerin meslek tahmini üzerinde bir etkisi olmadığı varsayılmaktadır. Bu bağlamda, meslek tahmini üzerinde cinsiyet yanlılığını araştırmak için sadece meslek sınıflandırması yapan modellerin yanında meslek ve cinsiyetin aynı anda öğrenildiği bir model de değerlendirilmiştir. Deneysel sonuçlar meslek tahmininde cinsiyet yanlılığının etkili olduğunu ortaya koymaktadıren_US
dc.format.extentx, 44 leavesen_US
dc.language.isoenen_US
dc.publisherIzmir Institute of Technologyen_US
dc.rightsinfo:eu-repo/semantics/openAccessen_US
dc.subjectNeural networksen_US
dc.subjectArtificial intelligenceen_US
dc.subjectSocial biasesen_US
dc.subjectGender biasen_US
dc.titleA language modeling approach to detect biasen_US
dc.title.alternativeTaraflılığın tespiti için bir dil modeli yaklaşımıen_US
dc.typeMaster Thesisen_US
dc.departmentThesis (Master)--İzmir Institute of Technology, Computer Engineeringen_US
dc.relation.publicationcategoryTezen_US
item.grantfulltextopen-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.cerifentitytypePublications-
item.openairetypeMaster Thesis-
item.languageiso639-1en-
item.fulltextWith Fulltext-
Appears in Collections:Master Degree / Yüksek Lisans Tezleri
Files in This Item:
File SizeFormat 
631237.pdf856 kBAdobe PDFView/Open
Show simple item record



CORE Recommender

Page view(s)

130
checked on Apr 22, 2024

Download(s)

82
checked on Apr 22, 2024

Google ScholarTM

Check





Items in GCRIS Repository are protected by copyright, with all rights reserved, unless otherwise indicated.