ако системата ти е правилно кирилизирана, няма никаква причина Nvivo/Atlas да не работят с български текстове; всъшност, сиигурен съм че няма да има проблем; Нвиво може да импортва само .rtf & .txt. проблеми може да се появат с чисто текстовите файлове, но са отстраними;
под 'кодиранв' не се има предвид това, което си написал/а; кодиране в случая означава създаване на таксономии и все по-фини категоризации на проблемите/темите които са засегнати в [неструктурирания] масив от документи с които работиш. това става ръчно, освен ако не се работи с документи които сами по себе си имат определена структура (напр. протоколи за полу-стадартизирани интервюта, документи с едини същи формат и т.н.). в такъв случай биха огли да се кодират по хединг - позиция на респондента, процедура за изготване на договорите с фирмите партьнорите, ю-нейм-ит;
т.е. да се кодира текст означава да избереш определена част от текста и да го кодираш/свържеш с някоя категория, субкатегория или качествена променлива, създадени от теб;
както и всяка статистическа програма, така и тези програми, колкото и да са софистицирани не могат да дадат удовлетворителни отговори на нищо ако не задаваш 'правилните въпроси' ;РРР; т.е. програмата няма да направи никакъв анализ вместо тебе, но страшно много облекчава процеса на дисегрегиране на релевантните теми, връзките мжеду тях, и т.н. ако се работи с достатъчно голям масив документи за да си струва усилието, евентуално данните могат да бъдат трансформирани в количествени;
такива програми се използват за отговаряне на въпроси от типа който даваш в примера за бизнесмена, което в общи линии е възможно най-простата ситуация която може да възникне; могат да се задават далеч по-гъвкави и сложни въпроси;
не напоследно място, изпозлването на такъв софтуер прави одита на подобни изследвания много по-лесен и безопасен т.к. минимизира ефекта от идиосинкразиите на изследоваеля (т.к. поне на първите етапи от кодирането все пак става дума за интерпретация); това отговаря на въпроса за "надеждна и обективна" информация; естествено, всички други задачи (честота, близост и т.н. на понятията) са автоматизиранни и доста лесни). така например, в примера даден от тебе, ще се знае кой какво е кодирал и с 'един клик' може да бъде извлечена цялата информация кодирана като 'негативен тон' (със сответните под-категории, ако има такива) и може веднага да бъде проверено дали това е основание за изводи, без да се налага да 'вярваш на някого'; един добре направен проект в рамките на дадения пример ще е способен да дава бързи отговори на въпроси от типа "какъв е тона на публикациите в левите вестници по отношение на бзнесмена Т, в статиите които третират шума около сделката Б, в периода А, и на какво е базиран този 'тон' (напр. дали на референции към действащото законодателство, просто популизъм и т.н.);
с други думи, начина да се види че журналистите не са прави ( те никога не са ;РРРРР) е именно процеса на обработване на информацията/интерпретацията да се разбие на колкото е възможно по-малки и стандартизиарни и контролируеми стъпки; сериозните качествени изследвания в миналото са правели това което тези пакети правят сеа ръчно, но по абсолщтно същия начин - т.е. с кодиране, кросс-референс-ване, двойно/тройно независимо кодиране и т.н.; (несериозните качествени изследвания предполагам са наемали журналисти, дава ли са и мда прочетат 5 статии и са ги питали какво мислят по въпроса ;РРРРРР)
що се отнася то 'теорията' - както и в предишния постинг писах, всички тези пакети в еднна или друга степен възпроизвеждат логиката на "grounded theory" (JULIET CORBIN & ANSELM STRAUSS (1990). Grounded Theory Research - Procedures, Canons and Evaluative Criteria. Qualitative Sociology, Vol. 13, No. 1; 1 9 9 0)
написали са и една книга по въпроса; честно казано бих го нарекъл повече подход, отколкото 'теория' амъ кой съм азз да се оплаквам ;РРРР;
|