Volume 42 Number 2

Designing an effective questionnaire in wound care

John Stephenson

Keywords analysis, measures, questionnaire design, response rate, validation

For referencing Stephenson J. Designing an effective questionnaire in wound care . WCET® Journal 2022;42(2):24-29

DOI https://doi.org/10.33235/wcet.42.2.24-29
Submitted 29 April 2022 Accepted 6 May 2022

PDF

Author(s)

References

Português

Introduction

Quantitative data collection via questionnaire is common practice in wound care. Questionnaires are a relatively inexpensive and quick way of amassing data, and do not necessarily require the researcher to be present while the data is being collected. Very often they are the only viable way to collect the data required. Common uses of questionnaires in wound care, which can include questionnaires administered to clinical staff, patients or both, include:

  • To assess the effectiveness of a clinical training programme in increasing staff knowledge of a certain condition.
  • To assess the extent of the use of particular dressing in a certain clinical setting.
  • To evaluate a new piece of equipment.
  • To monitor wound healing under a new treatment regime.
  • To assess a patient-related outcome, such as pain, quality of life or satisfaction with treatment received.

While many fully validated questionnaires are available ‘off-the peg’, researchers in wound care may find that the specific measures captured by these questionnaires do not match the aims of their proposed study, and hence it may be necessary for a bespoke instrument to be designed. Questionnaire-based research involves careful thought regarding selection of the study sample, maximising the response rate, identifying the measures to be assessed, formulating and scoring the constituent items, framing the items for analysis, considering the outcome measures and item scoring, and piloting the questionnaire.

Who is the questionnaire to be given to?

The concept of generalisability – the ability to infer beyond sample data (those who have completed the questionnaire) to a typically much wider parent population – is key to most quantitative research studies. This requires a representative sample of respondents. It is almost impossible to create a sample which exactly reflects the population it is supposed to represent on all aspects. Clinical knowledge is needed to establish important traits – such as job level, patient co-morbidity, or wound type – which will vary from one study to another. Determination of whether a sample does indeed reflect the parent population on the characteristics deemed to be most important to the study may require knowledge of at least the approximate distribution of categories of units in the population of interest: for example, the composition of a typical tissue viability nursing team in a typical organisation may be known, and researchers may seek to reflect that composition in the personnel invited to complete our questionnaire. Failure to ensure that the sample does not differ in some important way from the population it purports to represent may lead to selection bias, which may weaken or invalidate findings.

Some specific features apply to data collected in many wound care studies. First, data must often be collected concurrently on both clinical staff and patients. An example might be a study of the caseload of a community nursing team in which both nurses and their patients will be surveyed; typically, different sets of questionnaire items will be applicable to the nurses and the patients. This often leads to clustered data, where one staff member will be treating several patients. Second, the unit of analysis in wound care studies is not always an individual person, as is often the case in other branches of clinical sciences. It may be a wound, such as a pressure injury, and one patient may supply multiple wounds to the same study. Again, this leads to the issue of clustering of data; here with pressure injuries clustered within individual patients.

Maximising the response rate

Data collection via questionnaire is particularly susceptible to response bias, bias introduced by differences in characteristics between those who choose to complete the questionnaire and those who do not. Although computational methods exist for imputing missing data values, these methods may not be viable in all situations and it is generally preferable to maximise both the proportion of potential responders who actually respond, and the proportion of those who respond who give a complete set of responses. Low response rates also lead to reductions in the power of the analysis – the ability to detect any effect that may exist.

There are some obvious methods of increasing response and completion rates:

  • Use of electronic formats instead of, or as well as, paper-based questionnaires (polite emailed reminders may be sent to non-respondents at appropriate intervals).
  • Avoidance of questionnaires with excessive items. All included items should be included for a specific purpose: each superfluous item increases the chance that a respondent will not complete the questionnaire properly. For example, respondents should not be asked to directly provide information on quantities such as BMI which can be calculated by the researchers from other information provided by respondents.
  • Avoidance of ambiguously worded items. Items should be quick for the respondents to answer by offering a selection of options or visual analogue scales rather than asking for free text. Provision of conditional items can introduce confusion and should be limited.
  • Assurance of participant anonymity, if this is appropriate for the information collected.

Some studies will require questionnaire-based data to be collected on multiple occasions, for example, to monitor quality of life or pain in patients with chronic wounds. A common issue here is that the proportion of completed questionnaires generally decreases at each data collection point. This can introduce further bias in the form of attrition bias, when those lost to follow-up are somehow systematically different from those who return their questionnaires. While little can be done about patients moving away or dying during the follow-up period, attrition loss can nonetheless be minimised by not over-burdening respondents in terms of the frequency of questionnaire mailings, nor the length or complexity of the questionnaires they are required to complete.

Validation / measures to be assessed

Devising appropriate items to efficiently encapsulate outcome measures of interest is often the most difficult part of effective questionnaire design. It is generally preferable to use a questionnaire that is validated for implementation on similar participants. However, full validation is an extensive process: Price and Harding1 reported the development and validation of a questionnaire to measure the impact of chronic wounds (leg ulcers and diabetic foot ulcers) on patient health-related quality of life (HRQoL) and identify areas of patient concern. This involved a three-stage process: a focus group and a series of semi-structured interviews to generate items for the questionnaire; a pilot process of the questionnaire with analysis of data via factor analysis; and assessment of reliability, validity and reproducibility of the resulting scale in a 3-month follow-up period.

While full validation of a self-designed questionnaire is a significant undertaking that may not be within the resources of a clinician who needs to design, implement and analyse data in a limited period of time, some common validation steps may be plausible. Often this will involve input to item wording from a panel of expert clinicians, with clarity of wording possibly assessed via focus groups or other means. The aim is to derive a series of items which each contribute to a different facet of the outcome of interest and, when assessed in conjunction with each other, provide a meaningful measure of the overall outcome. Expert advice may be needed to confirm that an item really is contributing to the measurement of the construct intended, and not some other construct. Barakat-Johnson et al2 developed and evaluated the psychometric properties of an instrument used to assess clinician knowledge of incontinence-associated dermatitis with item development using the input of an expert panel of clinicians as the first stage of a three-stage process; this was then followed by an evaluation of content validity of the instrument via a survey of clinicians and stakeholders, and a pilot multi-site cross-sectional survey design to determine composite reliability.

Content and construct validity should also be addressed during the development process. Items that are too self-similar should be avoided. Rather than each capturing a unique facet of the construct of interest, such items are capturing the same facet, and hence this facet is being double counted, and it is very likely that respondents will respond in the same way to both items. Conversely, however, items which are very different from each other may not be measuring the same construct at all. Another common issue is the ‘overlapping’ of facets of a construct captured by different items. Evaluation of content and construct validity using recognised summary measures and statistical methods were utilised by Barakat-Johnson et al.2 in subsequent stages of the development of their tool.

Item formulation and scoring

Derivation of quantitative data via questionnaire requires ‘closed’ responses (numbers or categories); ‘open-ended’ responses are not generally suitable for quantitative reporting. Closed-form questionnaire items may be formulated in a number of ways. Some of the more common item formulations are:

  • Items eliciting a numerical quantity directly, such as ‘What is your age in years?
  • Items which yield a numerical quantity indirectly, by requesting respondents to provide a response on a visual analogue scale which is subsequently processed by the researcher. A typical example might be to present a line of given length (say 10cm) with both ends clearly labelled as representing extreme values; for example: ‘No pain at all’ and ‘The worst pain imaginable’; and accompanied by an instruction such as ‘Please put a mark on this line corresponding to the level of pain your wound is causing you today’.
  • Items allowing respondents to choose one option from a list of possible options offered.
  • Items allowing respondents to choose as many options as are applicable from a list of possible options offered.

The first two of these types elicit numerical responses; the second two elicit categorical responses. Both types of responses may be potentially of use for subsequent analysis, and the questionnaire should be formatted so that it is possible for respondents to report either a numerical response, or choose from a list of options, as appropriate, to a particular item.

Items eliciting direct or indirect numerical responses are potentially the most straightforward to include in subsequent analysis procedures. However, subsequent data pre-processing can be made easier by framing a question such that respondents do not feel the need to add in unnecessary words: a question such as ‘How long have you worked in this organisation?’ may elicit a range of responses such as ‘Less than 1 year’; 18 months’; ‘About 5 years’ and so forth, which will be interpreted by most computer software as text, rather than numerical responses, and need extensive editing before they can be used for analysis. A simple re-wording such as ‘Please state the number of years (round to the nearest year) that you have worked for this organisation’ might save a lot of pre-processing time. Also, a simple instruction to leave blank any non-applicable items, or items for which the respondent cannot give a correct response, may save more time in deleting various instances of ‘Not applicable’; ‘Don’t know’; ‘Not sure’ and so forth.

It is common practice to introduce artificial categorisation in items yielding numerical data. For example, an item requesting respondents to report their age might offer a choice of age range options: ‘18–30’, ‘31–40’, ‘41–50’ etc. Such approaches are not generally recommended: first, information is lost about the distinction between respondents of different ages within the same age range (there may be considerable differences in the responses of an 18-year-old and those of a 30-year-old); and second, multiple categories in a grouping variable means multiple comparisons are needed in the analysis (outcomes in those aged 18–30 versus those aged 31–40, outcomes in those aged 18–30 versus those aged 41–50 and so on), potentially leading to technical issues and problems of interpretation.

However, for items which capture a construct truly measured at the categorical level, there is no alternative to offering a list of options for respondents to select. The list of options offered should be exhaustive. A respondent who is requested to supply their role in an organisation, for example, only to find that their role is not represented in the options offered, may lose confidence that their participation in the study will result in accurate recording of their views or situation and may be less inclined to complete the rest of the questionnaire accurately.

A similar issue arises when options overlap. If the options for the item ‘How many patients are in your weekly caseload?’ are, say, ‘10 or fewer’; ‘10–20’; ‘20–30’ etc., then someone with a caseload of 10 or 20 patients exactly will not know which option they should select. Another example might be a respondent who is asked to select their job role from a list of options when they actually have two or more roles. This situation can be simply avoided with better item wording, for example: ‘Please select the role from the following list that most closely corresponds to your main job role’.

In formulating items of this kind, it can be tempting to allow respondents a free text response. This may prevent accidental omission of a respondent’s preferred option, or confusion arising from multiple options which are similar, but not identical, to the response that the respondent would prefer to make. However, this allowance may necessitate extensive subsequent pre-processing of free text data into defined groups, which may not always be easy if respondents are not sufficiently explicit in their free-text responses. This situation can often be avoided by offering an ‘Other’ option in the list of options.

The options offered to a categorical item may be nominal (no underlying ordering; in which case the ordering of options is unimportant) or ordinal (in which case options should be presented in a logical order). The ‘classic’ ordinal questionnaire item is the Likert item, the simplest and, by some margin, the most popular formulation for questionnaire items, found in many, if not most, questionnaires. A Likert item is a question which typically asks respondents to choose an option from an ordered list of five options representing the strength of agreement with a particular statement, such as, for example, ‘Product X is an effective treatment for over-granulation’. Typical options to such an item might be ‘Strongly disagree’, ‘Disagree’, ‘Neither agree nor disagree’, ‘Agree’ and ‘Strongly agree’. Other Likert items may ask respondents to assess the frequency or magnitude of an event, such as, for example, ‘Has the area around the wound become swollen?’ Here, typical options might be ‘Not at all’, ‘A little bit’, ‘A moderate amount’, ‘Quite a lot’, ‘A great deal’.

Likert items do not have to offer five options, but in general do offer an odd-number of options, of which five is probably the most common number, to allow for a ‘neutral’ middle option. While items with larger number of options may appear to offer more granularity of response, the distinctions between the points on the scale can be increasingly hard for respondents to discern (‘Some of the time’, ‘Much of the time’, ‘Most of the time’, ‘Almost all the time’ etc.). A visual equivalent of the Likert item is a question worded something like: ‘On a scale of 0 to 10, how much has your wound prevented you from carrying out daily household tasks?’. This is an 11-point item: a common error is to allow the scale in questions of this kind to run from 1 to 10 (rather than 0 to 10). The neutral response in such cases would be represented by a response of 5.5, not 5; although many who respond with the value 5 to items of this kind would no doubt be intending to report a response in the exact centre of the available scale. Items with a wide set of ordinal responses behave in some ways like items yielding numerical responses indirectly via a visual analogue scale.

Items that request respondents to select ‘as many options are applicable’ are acceptable, but such items can be significantly harder to analyse than corresponding items which request only a single option to be chosen. For example, an item such as ‘Which of the following wound dressings do you use on a regular basis – please select all that apply’ followed by a list of 26 options (Product A, Product B, Product C … Product Z), is actually equivalent, in analysis terms, to a series of 26 questions: ‘Do you use Wound Dressing Product A on a regular basis – yes or no?’; ‘Do you use Wound Dressing Product B on a regular basis – yes or no?’… ‘Do you use Wound Dressing Product Z on a regular basis – yes or no?’. This series of items will probably lead to a wide range of combinations of responses and give rise to dozens of pairwise comparisons, all of which will be difficult to interpret.

Framing the items for analysis

A typical questionnaire may begin with some basic demographic questions, eliciting respondents’ demographic and lifestyle attributes, such as age, sex, family status etc.; and/or items relating to their health condition (presence of various mental or physical health conditions, duration of pre-existing wound) or employment status (length of service, staff grade etc.). Some of these items may be included to help illustrate the diversity or characteristics of the sample but will take no further part in the analysis itself.

Within reason, items measuring such ‘background variables’, which are typically factual questions eliciting numerical or categorical responses, rather than from Likert-style or similar items, can be recorded in whatever way is desired. Questionnaires which are designed to present data descriptively, but will not involve any kind of inferential analysis (i.e. inferring from sample data to a parent population), may be limited to items of this kind. Such studies are typically designed to assess the prevalence or proportion of a quantity, such as a study to ascertain the proportion of nurses using a particular wound care product, or the proportion of clinical staff who respond to a visual prompt such as skin reddening. Brown and Sneddon3 implemented a questionnaire, comprised of mostly ‘stand-alone’ items with ordinal responses, to understand how lymphoedema services are funded and delivered across the UK and their level of resource. The questionnaire data yielded estimates of proportions (for example, the proportion of clinicians surveyed who treated open wounds) but the researchers did not attempt to generalise beyond the sample data.

However, inferential analysis is generally within the scope of most quantitative studies, and hence most questionnaires eliciting quantitative data will include items which are needed for subsequent inferential analysis. For example, with respect to a certain outcome or outcomes, it may be desired to compare experienced and novice staff, or ICU patients who are turned regularly and those who are not, or a new piece of equipment and standard equipment. These analyses are examples of comparative studies, in which two or more groups are compared against each other: many standard research study designs, such as cohort studies, case-control studies and randomised controlled designs, fall into this bracket. Ousey et al4 used questionnaire-based data to compare a novel design of mattress against a standard mattress on a range of patient experience metrics (comfort, temperature and sleep quality) of patients. The researchers used standard inferential statistical methods to compare the significance and magnitude of effects, with groups defined by mattress type.

Items used to define grouping variables in these studies are categorical. Categorical variables which can take one of only two categories (or ‘levels’, as they are sometimes known) are known as binary variables, as in the study of Ousey et al.4. Some grouping variables may comprise more than two categories. For example, a study comparing outcomes in patients who may be classified as being underweight, normal weight, overweight, having obesity or having morbid obesity, might use a grouping variable ‘Obesity status’ to classify each questionnaire respondent into one of the above five categories.

Such multi-categorical grouping variables should be specified with caution; while a binary grouping variable leads to a single analysis (for example, outcome in males versus outcome in females), the number of analyses required quickly increases with the introduction of multiple-level grouping variables. Another reason to limit multiple-level grouping variables is that although items recording grouping variables should, in general, allow respondent selection of any possible item, researchers should be prepared for the eventuality of thinly-spread data across multiple categories, leading to some groups which are really too small to meaningfully analyse. In such circumstances, it may be necessary to merge certain categories together before analysis.

Outcome measures

In most questionnaires, the majority of items relate to the elicitation of outcome measures. Many outcomes are categorical, often binary, for example, the probability of a wound proceeding to 50% healing by 30 days after treatment; or multi-categorical, for example, predominant tissue type in wound bed. Such outcomes can generally be easily captured in a questionnaire with a single binary or ordinal item. Dhoonmoon5 surveyed the experience of 56 healthcare professionals (HCPs) of the use of a debridement pad via a feedback questionnaire. Most items, including those related to pad performance (removing slough debris, debridement action etc.) were assessed using categorical items, with options from ‘excellent’ to ‘poor’. Such measures lend themselves naturally to ordinal categorical assessment. For ease of analysis or other purpose, many ordinal outcomes are dichotomised – for example, one of the measured outcomes in the Ousey et al4 study (sleep quality) was processed for analysis from its original five options (‘excellent’, ‘very good’, ‘good’, ‘adequate’, ‘poor’) into a dichotomous measure comparing the responses of ‘excellent’ or ‘very good’ with any other response. Numerical outcomes, such as the percentage of patients healed, or the time for pain levels to reach a certain pre-specified value, may also be found but are less common in questionnaire-based analysis in wound care.

Item scoring

Questionnaires are typically used to evaluate quantities for which no simple objective measure exists. In the context of a wound care study, these may be, for example, a clinician’s evaluation of a new pressure re-distributing mattress, or a patient’s opinion as to how much their wound prevents them from carrying out everyday tasks. Such quantities typically cannot be encapsulated within a single item; a series of items, all of which tap into the construct of interest, may be needed. Examples include the knowledge of dermatitis of a trainee nurse who has recently completed a workshop session on this subject, or the quality of life experienced by a patient living with a chronic wound. Typically, these constituent items may be Likert-style or similar. In such cases, interest is almost invariably centred on the processed score of a set of items, and not on any of the individual items themselves. Hence while, in theory, each item on a questionnaire item could represent a single measure, the number of distinct measures captured on a typical questionnaire is usually a lot less than the number of items in the questionnaire, with several items contributing to the evaluation of each construct.

Limitation of the number of outcomes is generally desirable: extensive presentation of results of individual outcomes in the form of, for example, pie charts may give little insight into the relative importance of the various findings. There are also certain analysis issues which may make large numbers of primary outcomes undesirable. Just like studies which collect data through other means, the ideal questionnaire probably captures information on a single, pre-specified primary outcome, and a small number of secondary outcomes.

A score is needed for all items which contribute to the evaluation of a particular measure. Typically, the scoring for 5-point Likert items is very simple – from 1 point for ‘Strongly disagree’ to 5 points for ‘Strongly agree’, with intermediate options scored accordingly. Likert items with other numbers of options are scored in a similar way. Many researchers prefer to use a coding such as: –2 points for ‘Strongly disagree’, –1 point for Disagree and so on up to +2 points for ‘Strongly agree’, possibly with the idea that negatively worded responses require negative scores. This coding is exactly equivalent to the 1–5 coding mentioned above – the score for each option is reduced by 3 points for all options. As long as this scoring is applied consistently, inferences will be the same under either scoring systems.

It is normally assumed that item scores are additive, that it is meaningful to derive an overall score by adding up the scores obtained on individual items which contribute to the same measure. This assumption is often easier to justify if there is consistency in the formulation of items. It not obvious how an overall score should be derived with a series of items with a number of options that varies from, say, 2 to 3 to 5 to 7. Scores from the items with the largest number of options will swamp those from items with fewer responses if, for each item, responses are simply coded as 1 up to the value of the number of the options.

It is also harder to justify that summing scores from multiple items leads to a meaningful measure, even if the number of options in each item is the same, if the options are different. If one set of items offers the options ‘Strongly disagree’, ‘Disagree…’ ‘Strongly agree’ and another set offers the options ‘Not at all’, ‘A little bit…’ ‘A great deal’, it may be difficult to argue that the scores from the two sets of items can be meaningfully combined.

To ensure a meaningful total, the above coding may need to be reversed if some items are in the opposite sense to others, for example, if 5-point Likert items such as ‘My wound has forced me to limit my activities with others’ and ‘The wound has affected my sleep’ are coded using the 1–5 scale above, with 1 point awarded for a response of ‘Strongly disagree’ and 5 points awarded for a response of ‘Strongly agree’, then the implication is that higher scores indicate worse outcomes. Hence if an additional item in the same scale such as, for example, ‘I am able to carry out everyday tasks without difficulty’ is to be included, this item could be coded such that ‘Strongly agree’ is awarded 5 points, ‘Strongly disagree’ 1 point, and other points of the scale scored accordingly, for consistency with the remaining scale items.

Piloting the questionnaire

Pilot implementation can be a useful tool in the refinement of questionnaire items and can reveal issues which may impact on subsequent response rate and response reliability such as poor clarity of item wording or excessive time taken for questionnaire completion. If a questionnaire includes a set of Likert-style or similar items which are designed to tap into the same construct, the internal consistency of the pilot responses to these items can be assessed easily and quickly using the most statistical software. This process can identify items which are not responded to in a similar manner to other items purporting to be measuring the same construct, and hence may require amendments to their wording (if the wording is unclear or has been misunderstood by respondents), deletion from the questionnaire, or possibly moving to the measurement of another construct. The pilot stage is generally the only opportunity to make such amendments if they are needed.

Summary

Good questionnaire design is driven by the research question, and the analysis that proceeds from it. Consideration of the end point is in fact generally the starting point. Issues to be considered include determination of the outcomes to be measured; how are they to be measured; whether outcomes are objective measures that can be adequately captured using items eliciting simple numerical responses or categories, or require multiple items to capture a series of specific facets of the measure.

The level(s) at which the analysis is to be conducted must also be determined – in wound care studies, analyses at the patient, clinician or wound level are all commonplace. It must also be determined whether or not outcomes are to be linked to any other variables, and whether the desired groups for comparison are featured in the items functioning as grouping variables to classify units of analysis (whether patients, clinicians or wounds) appropriately.

Data collection via questionnaire should be approached just as data collection via medical devices or other means – it is necessary to ensure that the data collection instrument is fit for purpose. This means that as many steps as possible along the validation road are taken (assuming that a pre-validated instrument is not being used) to ensure that we are measuring the outcomes we think we are measuring, via carefully worded items grouped and scored appropriately. Care should be taken that only as many items as are necessary are used to capture demographics, other background information and outcome measures. It is necessary to ensure that respondents are, as far as possible, a representative sample of the population to which generalisations are to be made. Response rates are maximised by making the items as clear as possible, and by asking as little as possible of respondents in terms of the length of time and the amount of effort they will need to complete the questionnaire, just as might be done using other means of data collection.

While it is easy to under-estimate the effort required to facilitate effective questionnaire-based data collection, when conducted properly, questionnaire-based data collection can be a highly effective means of data collection and form a sound base for research studies.

Conflict of interest

The authors declare no conflicts of interest.

Funding

The authors received no funding for this study.


Desenho de um questionário eficaz no tratamento de feridas

John Stephenson

DOI: https://doi.org/10.33235/wcet.42.2.24-29

Author(s)

References

PDF

Introdução

A recolha de dados quantitativos através de questionário é uma prática comum no tratamento de feridas. Os questionários são uma forma relativamente barata e rápida de acumular dados e não exigem necessariamente a presença do investigador enquanto os dados estão a ser recolhidos. Muito frequentemente são a única forma viável para conseguir recolher os dados necessários. Os usos comuns dos questionários no tratamento de feridas, que podem incluir questionários administrados a pessoal clínico, pacientes ou ambos, incluem:

  • Avaliar a eficácia de um programa de formação clínica para aumentar os conhecimentos do pessoal sobre uma determinada condição.
  • Para avaliar a extensão da utilização de um determinado penso em um determinado ambiente clínico.
  • Para avaliar uma nova peça de equipamento.
  • Para monitorizar a cicatrização de feridas sob um novo regime de tratamento.
  • Para avaliar um resultado relacionado com o doente, como a dor, qualidade de vida ou satisfação com o tratamento recebido.

Embora muitos questionários totalmente validados estejam disponíveis "em formatos standard", os investigadores no tratamento de feridas podem descobrir que as medidas específicas capturadas por estes questionários não correspondem aos objectivos do seu estudo proposto e por isso pode ser necessário conceber um instrumento à medida. A investigação baseada em questionários envolve uma cuidadosa reflexão sobre a selecção da amostra do estudo, maximizando a taxa de resposta, identificando as medidas a serem avaliadas, formulando e pontuando os itens constituintes, enquadrando os itens para análise, considerando as medidas dos resultados e a pontuação dos itens e ainda pilotando o questionário.

A quem deve ser entregue o questionário?

O conceito de generalização - a capacidade de inferir para além dos dados da amostra (aqueles que preencheram o questionário) a uma população-mãe tipicamente muito mais vasta - é a chave para a maioria dos estudos de investigação quantitativa. Isto requer uma amostra representativa dos inquiridos. É quase impossível criar uma amostra que reflicta exactamente a população que supostamente deve representar em todos os seus aspectos. O conhecimento clínico é necessário para estabelecer características importantes - tais como o nível de trabalho, comorbilidade do paciente, ou tipo de ferida - que variam de um estudo para outro. Determinar se uma amostra reflecte efectivamente a população mãe sobre as características consideradas mais importantes para o estudo, pode exigir o conhecimento de pelo menos a distribuição aproximada das categorias de unidades na população de interesse: por exemplo, a composição de uma equipa de enfermagem de viabilidade de tecidos típica numa organização típica pode ser conhecida e os investigadores podem procurar reflectir essa composição no pessoal convidado a preencher o nosso questionário. A incapacidade de assegurar que a amostra não difere de uma forma importante da população que pretende representar pode levar a um enviesamento de selecção, o qual pode enfraquecer ou invalidar os resultados.

Em muitos estudos sobre tratamentos de feridas algumas características específicas aplicam-se aos dados recolhidos. Em primeiro lugar, os dados tanto do pessoal clínico como dos pacientes, devem frequentemente ser recolhidos em simultâneo. Um exemplo pode ser um estudo do número de casos de uma equipa de enfermagem comunitária em que tanto os enfermeiros como os seus pacientes serão inquiridos; tipicamente, serão aplicáveis aos enfermeiros e aos pacientes diferentes conjuntos de itens de questionário. Isto conduz frequentemente a dados agrupados, onde um membro do pessoal irá tratar vários pacientes. Em segundo lugar, a unidade de análise nos estudos de tratamentos de feridas nem sempre é uma pessoa individual, como é frequentemente o caso noutros ramos das ciências clínicas. Pode ser uma ferida, tal como uma lesão por pressão e um paciente pode fornecer várias feridas para o mesmo estudo. Mais uma vez, isto leva à questão do agrupamento de dados; aqui com as lesões por pressão agrupadas em pacientes individuais.

Maximizar a taxa de resposta

A recolha de dados através de questionário é particularmente susceptível a enviesamentos de resposta, enviesamentos introduzidos por diferenças de características entre aqueles que optam por preencher o questionário e aqueles que não respondem. Embora existam métodos computacionais para imputar valores para dados em falta, estes métodos podem não ser viáveis em todas as situações e é geralmente preferível maximizar tanto a proporção de potenciais inquiridos que realmente respondem, como a proporção daqueles que, ao responder, dão um conjunto completo de respostas. As baixas taxas de resposta também levam a reduções no poder da análise - a capacidade de detectar qualquer efeito que possa existir.

Existem alguns métodos óbvios para aumentar as taxas de resposta e de conclusão:

  • Utilização de formatos electrónicos em vez de, ou em complemento de questionários em papel (podem ser enviados por e-mail, a intervalos apropriados, lembretes educados a não-respondentes).
  • Evitar questionários com itens em excesso. Todos os itens considerados devem ser incluídos para um fim específico: cada item supérfluo aumenta a hipótese de um respondente não completar o questionário adequadamente. Por exemplo, não deve ser pedido aos inquiridos que forneçam directamente informações sobre quantidades, como o IMC, que podem ser calculadas pelos investigadores a partir de outras informações fornecidas pelos inquiridos.
  • Evitar itens redigidos ambiguamente. Os itens devem ser de resposta rápido para os inquiridos responderem, oferecendo uma selecção de opções ou escalas analógicas visuais, em vez de solicitarem respostas em texto livre. O fornecimento de itens condicionais pode introduzir confusão e deve ser limitado.
  • Garantia de anonimato do participante, se tal for apropriado para as informações recolhidas.

Alguns estudos exigirão a recolha de dados baseados em questionários em múltiplos momentos , por exemplo, para controlar a qualidade de vida ou a dor em pacientes com feridas crónicas. Uma questão que aqui é comum é que a proporção de questionários preenchidos diminui geralmente em cada ponto de recolha de dados. Isto pode introduzir um maior enviesamento sob a forma de enviesamento por atrito, quando os questionários de acompanhamento perdidos são de alguma forma sistematicamente diferentes dos que devolvem os seus questionários. Embora pouco se possa fazer em relação aos pacientes que se afastam ou venham a falecer durante o período de seguimento, a perda por atrito pode, no entanto, ser minimizada, se se conseguir não sobrecarregar os inquiridos em termos da frequência de envios de questionários, nem da duração ou complexidade dos questionários que são obrigados a preencher.

Validação / medidas a avaliar

A definição de itens apropriados para encapsular eficazmente medidas de resultados de interesse é muitas vezes a parte mais difícil da concepção eficaz de questionários. É geralmente preferível utilizar um questionário que esteja validado para implementação em participantes semelhantes. No entanto, a validação completa é um processo extensivo: Price e Harding1 relataram o desenvolvimento e validação de um questionário para medir o impacto de feridas crónicas (úlceras de perna e de pé diabético) na qualidade de vida relacionada com a saúde do paciente (HRQoL) e para identificar áreas de preocupação do paciente. Isto envolveu um processo em três fases: um grupo de foco e uma série de entrevistas semiestruturadas para gerar itens para o questionário; um processo piloto do questionário com análise dos dados através da análise dos factores; e avaliação da fiabilidade, validade e reprodutibilidade da escala resultante num período de seguimento de 3 meses.

Embora a validação completa de um questionário auto-desenhado seja um empreendimento importante que pode não estar dentro dos recursos de um clínico que necessita de conceber, implementar e analisar dados num período de tempo limitado, podem ser plausíveis algumas etapas comuns de validação. Muitas vezes isto envolverá o contributo de um painel de médicos especialistas para a elaboração do artigo, com clareza de redacção possivelmente avaliada através de grupos de foco ou outros meios. O objectivo é o de derivar uma série de itens em que cada um contribui para uma faceta diferente do resultado do interesse e quando avaliados em conjunto, fornecem uma medida significativa do resultado global. Poderá ser necessário o aconselhamento de peritos para confirmar que um item está realmente a contribuir para a medição do constructo pretendida e não de algum outro constructo. Barakat-Johnson et al2 desenvolveram e avaliaram as propriedades psicométricas de um instrumento utilizado para avaliar o conhecimento clínico da dermatite associada à incontinência, através do desenvolvimento de itens utilizando o contributo de um painel de especialistas clínicos como a primeira fase de um processo em três fases; seguiu-se uma avaliação da validade do conteúdo do instrumento através de um inquérito a clínicos e partes interessadas e depois um projecto-piloto de inquérito multissectorial para determinar a fiabilidade composta.

O conteúdo e a validade do constructo devem também ser abordados durante o processo de desenvolvimento. Os artigos que são demasiado semelhantes devem ser evitados. Em vez de cada um capturar uma faceta única do constructo de interesse, tais itens estão a capturar a mesma faceta e por isso esta faceta está a ser duplamente contada, sendo muito provável que os inquiridos respondam da mesma forma a ambos os itens. Inversamente, no entanto, artigos que são muito diferentes uns dos outros podem não estar a medir o mesmo constructo. Outra questão muito comum é a “sobreposição” de facetas de um constructo capturadas por diferentes itens. A avaliação do conteúdo e da validade do constructo, utilizando medidas sumárias e métodos estatísticos reconhecidos, foram utilizados por Barakat-Johnson et al.2 em fases subsequentes do desenvolvimento do seu instrumento.

Formulação do item e pontuação

A recolha de dados quantitativos através de questionário requer respostas "fechadas" (números ou categorias); as respostas "abertas" não são geralmente adequadas para relatórios quantitativos. Os itens do formulário de um questionário fechado podem ser apesentados de várias maneiras. Algumas das formulações mais comuns são:

  • Itens que suscitam directamente uma quantidade numérica, tais como "Qual é a sua idade em anos?”
  • Itens que produzem uma quantidade numérica de forma indirecta, solicitando aos inquiridos que forneçam uma resposta numa escala analógica visual, a qual é subsequentemente processada pelo investigador. Um exemplo típico poderia ser apresentar uma linha de um determinado comprimento (digamos 10cm) com ambas as extremidades claramente rotuladas como representando valores extremos; por exemplo: "Nenhuma dor" e "A pior dor imaginável"; sendo acompanhado por uma instrução como "Por favor, coloque uma marca nesta linha correspondente ao nível de dor que a sua ferida lhe está a causar hoje".
  • Itens que permitem aos inquiridos escolher uma opção de uma lista de possíveis opções possíveis.
  • Itens que permitem aos inquiridos escolher tantas opções quantas forem aplicáveis a partir de uma lista de opções possíveis.

Os primeiros dois deste tipo suscitam respostas numéricas; os segundos dois suscitam respostas categóricas. Ambos os tipos de respostas podem ser potencialmente úteis para análises subsequentes e o questionário deve ser formatado de modo que seja possível aos inquiridos relatar uma resposta numérica, ou escolher a partir de uma lista de opções, conforme o caso, para um determinado item.

Os itens que suscitam respostas numéricas, directas ou indirectas, são potencialmente os mais simples de incluir em procedimentos de análise subsequentes. No entanto, o pré-processamento de dados subsequente pode ser facilitado através da formulação de uma pergunta, de tal forma que os inquiridos não sintam necessidade de acrescentar palavras desnecessárias: uma pergunta do tipo "Há quanto tempo trabalha nesta organização?" pode suscitar uma série de respostas tais como "Menos de 1 ano"; "18 meses"; "Cerca de 5 anos", etc., que serão interpretadas pela maioria dos programas informáticos como texto, em vez de respostas numéricas e necessitam de uma edição extensiva antes de poderem ser utilizadas para análise. Uma simples reformulação tal como "Por favor, indique o número de anos (arredondar para o ano más próximo) em que trabalhou para esta organização" pode poupar muito tempo de pré-processamento. Além disso, uma instrução simples para deixar em branco quaisquer itens não aplicáveis, ou itens para os quais o inquirido não possa dar uma resposta correcta, pode poupar mais tempo na eliminação de vários casos de "Não aplicável"; "Não sei"; "Não tenho a certeza" e assim por diante.

É prática comum introduzir uma categorização artificial em artigos que produzem dados numéricos. Por exemplo, um item solicitando aos inquiridos que comuniquem a sua idade pode oferecer várias opções de faixa etária: “18-30”, “31-40”, “41-50”, etc. Tais abordagens não são geralmente recomendadas: em primeiro lugar, perde-se informação sobre a distinção entre inquiridos de diferentes idades dentro da mesma faixa etária (pode haver diferenças consideráveis nas respostas de uma pessoa de 18 anos e as de uma pessoa de 30); e em segundo lugar, múltiplas categorias numa variável de agrupamento significa que serão necessárias múltiplas comparações na análise (resultados nas pessoas com 18-30 anos versus 31-40 anos, resultados nas pessoas com 18-30 anos versus 41-50 anos e assim por diante), conduzindo potencialmente a questões técnicas e a problemas de interpretação.

Contudo, para itens que capturam um constructo verdadeiramente medido ao nível categórico, não há alternativa a oferecer uma lista de opções para que os inquiridos seleccionem. A lista de opções oferecidas deve ser exaustiva. Um inquirido que seja solicitado a fornecer o seu papel numa organização, por exemplo, apenas para descobrir que o seu papel não está representado nas opções oferecidas, pode perder a confiança de que a sua participação no estudo irá resultar num registo exacto das suas opiniões ou situação e poderá estar menos inclinado a preencher o resto do questionário com precisão.

Uma questão semelhante surge quando as opções se sobrepõem. Se as opções para o item "Quantos pacientes tem na sua carga de trabalho semanal?” são, digamos, “10 ou menos”; “10-20”; “20-30”, etc., então alguém com um número de casos de 10 ou 20 pacientes não saberá exactamente qual a opção que deve seleccionar. Outro exemplo possível pode ser um inquirido a quem é pedido que seleccione a sua função a partir de uma lista de opções, quando na realidade têm duas ou mais funções. Esta situação pode ser evitada simplesmente com uma melhor redacção dos itens, por exemplo: por favor, seleccione na lista seguinte a função que mais se corresponda com a sua função principal".

Na formulação deste tipo de itens, pode ser tentador permitir aos inquiridos uma resposta de texto livre. Isto pode impedir a omissão acidental da opção preferida pelo inquirido, ou a confusão resultante de múltiplas opções que são semelhantes, mas não idênticas, à resposta que o inquirido preferiria dar. Contudo, esta possibilidade pode exigir um subsequente e extenso pré-processamento de dados de texto livre em grupos definidos, o que nem sempre poderá ser fácil se os inquiridos não forem suficientemente explícitos nas suas respostas de texto livre. Pode muitas vezes ser evitada esta situação oferecendo a possibilidade 'Outra' na lista de opções.

As opções apresentadas num item categórico podem ser nominais (sem ordenação subjacente; neste caso a ordenação das opções não é importante) ou ordinais (neste caso as opções devem ser apresentadas numa ordem lógica). O item 'clássico' do questionário ordinal é o item Likert, o mais simples e, com alguma margem, a formulação mais popular para itens de questionário, encontrada em muitos, se não na maioria, dos questionários. Um item Likert é uma pergunta que normalmente pede aos inquiridos que escolham uma opção de uma lista ordenada de cinco opções que representam a força do acordo com uma declaração específica, como, por exemplo, "O Produto X é um tratamento eficaz para a sobre-granulação". As opções típicas para este tipo de item podem ser “Discordo totalmente”, “Discordo”, “Não concordo nem discordo”, “Concordo' e 'Concordo totalmente”. Outros itens Likert podem pedir aos inquiridos que avaliem a frequência ou a magnitude de um evento, tais como, por exemplo, "A área à volta da ferida ficou inchada?” Aqui, as opções típicas podem ser "De modo algum", "Um pouco", "Uma quantidade moderada", "Bastante", "Muitíssimo".

Os itens Likert não têm de oferecer cinco opções, mas em geral oferecem um número ímpar de opções, das quais cinco é provavelmente o número mais comum, de modo a permitir uma opção intermédia 'neutra'. Embora os itens com maior número de opções possam parecer oferecer uma maior granularidade de respostas, as distinções entre os pontos da escala podem ser cada vez mais difíceis de discernir ('Algumas vezes', 'Muitas vezes', 'A maior parte do tempo', 'Quase sempre', etc.). Um equivalente visual de um item Likert é uma pergunta formulada como algo parecido a: “Numa escala de 0 a 10, quanto é que a sua ferida o impediu de realizar as suas tarefas domésticas diárias?” Este é um item de 11 pontos: um erro comum em questões deste tipo é permitir que a escala funcione de 1 a 10 (em vez de 0 a 10). Nestes casos, a resposta neutra seria representada por uma resposta de 5,5 e não de 5; embora muitos dos que respondessem com o valor 5 a itens deste tipo teriam, sem dúvida, a intenção de relatar uma resposta no centro exacto da escala disponível. Os itens com um vasto conjunto de respostas ordinais comportam-se, de alguma forma, como itens que produzem respostas numéricas indirectamente através de uma escala analógica visual.

Os itens que solicitam aos inquiridos que seleccionem "quantas opções forem aplicáveis" são aceitáveis, mas esse tipo de itens pode ser significativamente mais difícil de analisar do que os itens correspondentes que solicitam a escolha de apenas uma única opção. Por exemplo, um item como "Quais dos seguintes pensos para feridas utiliza regularmente - por favor seleccione todos os que se aplicam" seguido de uma lista de 26 opções (Produto A, Produto B, Produto C ... Produto Z) é de facto equivalente, em termos de análise, a uma série de 26 perguntas: "Utiliza regularmente o Penso de Ferida A - sim ou não?” “Utiliza regularmente o Penso de Ferida B - sim ou não?”… “Utiliza regularmente o Penso de Ferida Z - sim ou não?”. Esta série de itens provavelmente levará a uma vasta gama de combinações de respostas e dará origem a dezenas de comparações de pares, todas elas de difícil interpretação.

Enquadramento para análise dos artigos

Um questionário típico pode começar com algumas questões demográficas básicas, suscitando que sejam respondidos os atributos demográficos e de estilo de vida dos inquiridos, tais como idade, sexo, estatuto familiar, etc.; e/ou itens relacionados com o seu estado de saúde (existência de várias condições de saúde mental ou física, duração da ferida pré-existente) ou situação profissional (tempo de serviço, grau profissional, etc.). Alguns destes itens podem ser incluídos para ajudar a ilustrar a diversidade ou as características da amostra, mas não farão parte da análise em si.

Dentro do razoável, os itens que medem tais “variáveis de fundo”, que são tipicamente questões factuais e que suscitam respostas numéricas ou categóricas, em vez de itens do estilo Likert ou similares, podem ser registados da forma que se desejar. Os questionários que são concebidos para apresentar os dados de forma descritiva, mas que não vão envolver qualquer tipo de análise inferencial (ou seja, inferir a partir dos dados de amostra para uma população mãe) podem ser limitados a itens deste tipo. Tais estudos são tipicamente concebidos para avaliar a prevalência ou a proporção de uma quantidade, tal como um estudo para determinar a proporção de enfermeiros que utilizam um determinado produto para o tratamento de feridas, ou a proporção de pessoal clínico que responde a uma solicitação visual, tal como seja o avermelhamento da pele. Brown e Sneddon3 implementaram um questionário, composto na sua maioria por artigos "autónomos" com respostas ordinais, para compreender como, em todo o Reino Unido, os serviços de linfoedema são financiados e prestados e qual o seu nível de recursos. Os dados do questionário produziram estimativas de proporções (a proporção de clínicos inquiridos que trataram feridas abertas, por exemplo) mas os investigadores não tentaram generalizar para além dos dados da amostra.

No entanto, a análise inferencial está geralmente incluída no âmbito da maioria dos estudos quantitativos e por conseguinte, a maior parte dos questionários que suscitam dados quantitativos incluirão itens que são necessários para análises inferenciais subsequentes. Por exemplo, com respeito a um determinado resultado ou resultados, pode ser desejável comparar pessoal experiente com pessoal principiante, ou pacientes de UCI que são virados regularmente com os que não o são, ou uma nova peça de equipamento com um equipamento padrão. Estas análises são exemplos de estudos comparativos, nos quais dois ou mais grupos são comparados um frente ao outro: muitos desenhos de estudos de investigação padrão, tais como estudos de coorte, estudos de caso-controlo e projectos aleatórios controlados, enquadram-se neste intervalo. Ousey et al4 utilizaram dados baseados em questionários para comparar um colchão com um novo design com um colchão padrão, numa gama de métricas associadas à experiência dos pacientes (conforto, temperatura e qualidade do sono). Os investigadores utilizaram métodos estatísticos inferenciais padrão para comparar o significado e a magnitude dos efeitos, com grupos definidos por tipo de colchão.

Os itens utilizados para definir as variáveis de agrupamento nestes estudos são categóricos. As variáveis categóricas, que podem tomar uma de apenas duas categorias (ou 'níveis', como são por vezes conhecidas), são conhecidas como variáveis binárias, tal como no estudo de Ousey et al.4. Algumas variáveis de agrupamento podem compreender mais do que duas categorias. Por exemplo, um estudo comparando resultados em pacientes que podem ser classificados como tendo peso insuficiente, peso normal, excesso de peso, obesidade ou obesidade mórbida, pode utilizar a variável de agrupamento "Status de Obesidade" para classificar cada inquirido que respondeu ao questionário numa das cinco categorias acima referidas.

Estas variáveis de agrupamento multi-categorias devem ser especificadas com cautela; enquanto uma variável de agrupamento binária origina a uma única análise (por exemplo, resultado em homens versus resultado em mulheres), o número de análises necessárias aumenta rapidamente com a introdução de variáveis de agrupamento com múltiplos níveis. Outra razão para limitar as variáveis de agrupamento de múltiplos níveis é que apesar de os itens que registam variáveis de agrupamento devam, em geral, permitir a selecção pelo inquirido de qualquer item possível, os investigadores devem estar preparados para a eventualidade de obterem dados dispersos por múltiplas categorias, originando alguns grupos que são realmente demasiado pequenos para serem analisados de forma significativa. Em tais circunstâncias, pode ser necessário, antes da análise, fundir certas categorias.

Medidas de resultados

Na maior parte dos questionários, a maioria dos itens está relacionado com o suscitar medidas de resultados. Muitos resultados são categóricos e muitas vezes binários, por exemplo, a probabilidade de uma ferida atingir 50% de cicatrização até 30 dias após o tratamento; ou multi-categóricos, por exemplo, o tipo de tecido predominante no leito da ferida. Tais resultados podem geralmente ser capturados facilmente num questionário com um único item binário ou ordinal. A Dhoonmoon5 pesquisou, através de um questionário de feedback, a experiência de 56 profissionais de saúde (HCP) na utilização de uma almofada de desbridamento. A maioria dos itens, incluindo os relacionados com o desempenho da almofada (remoção de detritos viscosos, acção de desbridamento, etc.) foram avaliados usando itens categóricos, com opções de 'excelente' a 'pobre'. Naturalmente, tais medidas prestam-se a uma avaliação categórica ordinal. Para facilidade de análise ou de outro propósito, muitos resultados ordinais são dicotomizados - por exemplo, um dos resultados medidos no estudo Ousey et al4 (qualidade do sono) foi processado para análise a partir das suas cinco opções originais ('excelente', 'muito bom', 'bom', 'adequado', 'pobre') para uma medida dicotómica comparando as respostas de 'excelente' ou 'muito bom' com qualquer outra resposta. Os resultados numéricos, tais como a percentagem de pacientes curados, ou o tempo para os níveis de dor atingirem um determinado valor pré-especificado, também podem ser encontrados, mas são menos comuns na análise do tratamento de feridas baseada em questionários.

Pontuação do item

Os questionários são tipicamente utilizados para avaliar quantidades para as quais não existe uma medida objectiva simples. No contexto de um estudo de tratamento de feridas, estas podem ser, por exemplo, a avaliação de um novo colchão de redistribuição de pressão efectuada por um clínico, ou a opinião de um doente sobre o quanto a sua ferida o impede de realizar as tarefas quotidianas. Tais quantidades normalmente não podem ser encapsuladas num único artigo; pode ser necessária uma série de itens, todos os quais exploram o constructo de interesse. Exemplos incluem o conhecimento da dermatite por um enfermeiro estagiário que concluiu recentemente uma sessão de workshop sobre esse assunto, ou a qualidade de vida experimentada por um paciente que vive com uma ferida crónica. Tipicamente, estes itens constituintes podem ser do estilo Likert- ou similar. Nestes casos, o interesse está quase sempre centrado na pontuação processada de um conjunto de itens e não em nenhum dos itens individuais por separado. Desta forma, embora em teoria cada item de um questionário possa representar uma única medida, o número de medidas distintas capturadas num questionário típico é normalmente muito inferior ao número de itens do questionário, com vários itens a contribuir para a avaliação de cada constructo.

É geralmente desejável limitação do número de resultados: a apresentação extensa dos resultados individuais sob a forma de, por exemplo, gráficos de sectores pode dar pouca percepção da importância relativa dos vários resultados. Existem também certas questões de análise que podem tornar indesejáveis um grande número de resultados primários. Tal como os estudos que recolhem dados através de outros meios, provavelmente o questionário ideal captura informações sobre um único resultado primário pré-especificado e um pequeno número de resultados secundários.

É necessária pontuação para todos os itens que contribuem para a avaliação de uma determinada medida. Normalmente, a pontuação para itens Likert de 5 pontos é muito simples - de 1 ponto para "Discordo totalmente" a 5 pontos para "Concordo totalmente", com as opções intermédias pontuadas em conformidade. Os itens Likert com outro número de opções são pontuados de forma semelhante. Por exemplo, muitos investigadores preferem utilizar uma codificação como: -2 pontos por 'Discordo totalmente', -1 ponto por Discordo e assim por diante até +2 pontos por 'Concordo totalmente', possivelmente com a ideia de que as respostas formuladas negativamente requerem pontuações negativas. Esta codificação é exactamente equivalente à codificação 1-5 anteriormente mencionada - a pontuação para cada opção é reduzida em 3 pontos em todas as opções. Desde que esta pontuação seja aplicada de forma consistente, em qualquer um dos sistemas de pontuação as inferências serão as mesmas.

Assume-se normalmente que as pontuações dos itens são aditivas, sendo significativo obter uma pontuação global somando as pontuações obtidas em itens individuais que contribuem para uma mesma medida. Se houver consistência na formulação dos artigos este pressuposto é muitas vezes mais fácil de justificar. Não é óbvio como deve ser analisada uma pontuação global com uma série de itens com um número de opções que varia de, por exemplo, 2 a 3 a 5 a 7. As pontuações dos itens com o maior número de opções vão submergir as dos itens com menos respostas se, para cada item, as respostas forem simplesmente codificadas como 1 até ao valor do número das opções.

Se as opções forem diferentes, é também mais difícil justificar que a soma das pontuações de vários itens conduz a uma medida significativa, mesmo que o número de opções em cada item seja o mesmo. Se um conjunto de itens oferece as opções 'Discordo totalmente', 'Discordo...' 'Concordo totalmente' e um outro conjunto oferece as opções 'Nada mesmo', 'Um pouco...' 'Muito', pode ser difícil argumentar que as pontuações dos dois conjuntos de itens podem ser combinadas de uma forma significativa.

Para assegurar um total significativo, a codificação superior pode ter de ser invertida se alguns itens estiverem no sentido oposto ao de outros, por exemplo, se itens Likert de 5 pontos como "A minha ferida forçou-me a limitar as minhas actividades com outros" e "A ferida afectou o meu sono" forem codificados utilizando a escala 1-5 acima, com 1 ponto atribuído para uma resposta de "Discordo totalmente" e 5 pontos atribuídos para uma resposta de "Concordo totalmente", então a implicação será que pontuações mais altas indicam resultados piores. Dessa forma, se um item adicional na mesma escala como, por exemplo, "Sou capaz de realizar tarefas diárias sem dificuldade" for incluído, este item poderia ser codificado de tal forma que a "Concordo totalmente" fossem atribuídos 5 pontos, "Discordo totalmente" 1 ponto e os outros pontos da escala pontuados em conformidade, para coerência com os restantes itens da escala.

Pilotagem do questionário

A implementação piloto pode ser uma ferramenta útil no aperfeiçoamento dos itens do questionário e pode revelar questões que podem ter impacto subsequente na taxa de resposta e na fiabilidade da resposta, tais como a falta de clareza na redacção do item ou um tempo excessivo necessário para o preenchimento do questionário. Se um questionário incluir um conjunto de itens do estilo Liker ou similares, concebidos para explorar o mesmo constructo, a consistência interna das respostas-piloto a estes itens pode ser avaliada fácil e rapidamente utilizando um software de tratamento estatístico. Este processo pode identificar itens que não são respondidos de forma semelhante a outros itens que afirmam estar a medir o mesmo constructo e por isso podem exigir alterações à sua redacção (se a redacção não for clara ou tiver sido mal compreendida pelos inquiridos), eliminação do questionário, ou possivelmente a passagem para a medição de outro constructo. Se forem necessárias, a fase piloto é geralmente a única oportunidade de fazer tais alterações.

Resumo

A boa concepção do questionário é impulsionada pela questão da investigação e pela análise que a partir dela se procede. De facto, a consideração do ponto final é geralmente o ponto de partida. As questões a considerar incluem a determinação dos resultados a serem medidos; como estes devem ser medidos; se os resultados são medidas objectivas que podem ser adequadamente capturados usando itens que suscitam respostas numéricas simples ou categorias, ou ainda se requerem múltiplos itens para capturar uma série de facetas específicas da medida.

O(s) nível(is) em que a análise deve ser conduzida deve(m) também ser determinado(s) - nos estudos de tratamentos de feridas, são comuns todas as análises ao nível do doente, do médico ou da ferida. Também deve ser determinado se os resultados devem ou não ser ligados a quaisquer outras variáveis e se os grupos desejados para comparação são apresentados nos itens que funcionam como variáveis de agrupamento para classificar de forma apropriada unidades de análise (quer pacientes, clínicos ou feridas).

A recolha de dados através de questionário deve ser abordada tal como a recolha de dados através de dispositivos médicos ou de outros meios - é necessário assegurar que o instrumento de recolha de dados é adequado ao fim a que se destina. Isto significa que ao longo da estrada de validação são dados o maior número possível de passos (assumindo que um instrumento pré-validado não está a ser utilizado), de modo a assegurar que estamos a medir os resultados que pensamos estar a medir, através de itens cuidadosamente formulados, agrupados e pontuados de forma apropriada. Deve ter-se o cuidado de que apenas sejam utilizados tantos itens quantos os que forem necessários para capturar dados demográficos, outras informações de base e medidas de resultados. É necessário assegurar que os inquiridos sejam, na medida do possível, uma amostra representativa da população em relação à qual devem ser feitas as generalizações. As taxas de resposta são maximizadas tornando os itens o mais claros possível e pedindo o mínimo possível aos inquiridos em termos de duração e quantidade de esforço necessários para completar o questionário, tal como poderia ser feito utilizando outros meios de recolha de dados.

Embora seja fácil subestimar o esforço necessário para facilitar uma recolha de dados eficaz baseada em questionários, quando é conduzida correctamente, a recolha de dados baseada em questionários pode ser um meio altamente eficaz e formar uma base sólida para estudos de investigação.

Conflito de interesses

Os autores declaram não existirem conflitos de interesse.

Financiamento

Os autores não receberam qualquer financiamento para este estudo.


Author(s)

John Stephenson
PHD FRSS(GradStat) CMath(MIMA)
Senior Lecturer in Biomedical Statistics
University of Huddersfield, United Kingdom
Email J.Stephenson@hud.ac.uk

References

  1. Price P, Harding K. Cardiff Wound Impact Schedule: the development of a condition-specific questionnaire to assess health-related quality of life in patients with chronic wounds of the lower limb. Int Wound J. 2004 Apr;1(1):10-17.
  2. Barakat-Johnson M, Beeckman D, Campbell J, Dunk AM, Lai M, Stephenson J, Coyer F. Development and Psychometric Testing of a Knowledge Instrument on Incontinence-Associated Dermatitis for Clinicians: The Know-IAD. J Wound Ostomy Continence Nurs. 2022 Jan-Feb 01;49(1):70-77.
  3. Brown L, Sneddon MC. Lymphoedema service provision across the UK: a national survey. J Lymphoedema. 2020;15(1):16-21.
  4. Ousey K, Stephenson J, Fleming L. Evaluating the Trezzo range of static foam surfaces: results of a comparative study. Wounds UK 2016;12(4):66-73.
  5. Dhoonmoon L. Experiences of healthcare professionals using Prontosan® debridement pad. Wounds UK 2021;17(1):118-123.